光刻Overlay控制:AI如何提升套刻精度
做过光刻的人都知道,Overlay(套刻对准)这个东西,数字上看起来不大——几个纳米的偏差——但它造成的后果可以非常严重。我在产线上见过不止一次,因为Overlay drift没有及时catch住,一整个lot的wafer直接报废。这篇文章想聊聊Overlay控制这件事,以及AI介入之后,我们能做到什么程度。
Overlay到底是什么,为什么这么要命
半导体制造是一个逐层堆叠的过程。每一层光刻都需要和前一层精确对准,这个层间对准的偏差就是Overlay误差。打个不太严谨的比方:你在一张纸上画了电路,然后在上面再叠一张透明纸画第二层电路,两张纸如果没对齐,电路就接不上。
在成熟制程,比如28nm节点,Overlay的容忍度大概在8-10nm左右。听起来还有点余量。但到了先进制程就完全不同了——5nm节点的Overlay budget只剩下大约2-3nm,3nm节点的领先客户甚至在跑2nm到2.5nm的on-product overlay。这意味着什么?一个原子的直径大约是0.1-0.3nm,我们在讨论的精度只有十几个原子的量级。
Overlay超标的后果很直接:via接不上metal line,transistor的gate对不准source/drain,contact落在了不该落的位置。轻则器件性能退化、良率下降,重则功能性失效,整片wafer报废。在一条月产能5万片的产线上,即使只有1%的额外scrap rate,每个月也意味着上千万的损失。
怎么测量和补偿Overlay
Overlay的测量主要靠两种方法:IBO(Image-Based Overlay)和DBO(Diffraction-Based Overlay)。IBO比较直观,用光学显微镜去看曝光层和参考层的对准标记(alignment mark),通过图像分析算出偏移量。DBO则是基于衍射原理,通过测量光栅目标的衍射光强度变化来反推overlay值。两种方法各有优劣——IBO更直观但分辨率有限,DBO精度更高但对target设计要求严格,在复杂的3D NAND结构里还容易受到下层膜层干扰。
测出来overlay值之后怎么办?这就涉及APC(Advanced Process Control)的校正流程。最基础的做法是lotwise correction——每跑完一个lot,用量测数据算出校正值,反馈给光刻机用于下一个lot。更精细一点的是waferwise correction,每片wafer都单独算校正量。再进一步还有site-by-site的校正,但这对量测throughput的要求就非常高了。
校正的物理参数主要包括:translation(整体平移)、rotation(旋转)、magnification(放大缩小)、以及各种高阶项。光刻机在扫描曝光的过程中,可以通过调节reticle stage和wafer stage的相对位置来实时补偿这些误差。ASML的scanner内部有一套传感器系统,能在曝光过程中采集大量的对准数据,结合量测工具的反馈信息来做修正。
线性模型为什么不够用了
传统的overlay校正模型是线性的,用一组多项式去拟合wafer上各个测量点的overlay分布。最早大家用的是6参数模型(translation x/y, rotation, magnification, 加上一些低阶项),后来扩展到10参数、20参数,再到更高阶的校正。
在成熟制程,这套方法工作得还算不错。但到了先进节点,问题开始暴露出来。
我举个具体的例子。我们之前在一条14nm产线上观察到一个现象:wafer edge区域的overlay分布呈现出明显的非线性pattern,而且这个pattern跟wafer在前道工序中经历的thermal history有关系。CMP之后的膜层应力分布、离子注入导致的局部形变、甚至wafer在FOUP里的存放时间——这些因素叠加在一起,形成了一个高度非线性的overlay fingerprint。用传统的多项式模型去拟合这种分布,哪怕你把阶数提到很高,也很难完全capture住。
高阶修正还有一个尴尬的问题:参数越多,对量测数据的要求就越高。你需要足够多、足够密的测量点才能可靠地拟合高阶模型,否则就会过拟合,反而把噪声当成了真实的overlay signal。但增加测量点意味着量测时间变长,throughput下降,cycle time增加——这些对产线来说都是实打实的成本。
另一个被忽视的问题是:传统的反馈校正天然存在滞后性。你用这个lot的量测数据去修正下一个lot,但两个lot之间的工艺条件可能已经发生了drift。chuck的热变形在变化,光刻胶的涂布厚度在波动,前道CMP的均匀性也不是一成不变的。这种”用昨天的数据去校正今天的问题”的模式,在工艺波动越来越敏感的先进节点上,效果自然越来越有限。
AI方法:从被动补偿到主动预测
这就是AI/ML方法切入overlay控制的核心逻辑——用机器学习模型去捕捉那些传统线性模型处理不了的非线性关系,并且从”事后补偿”转向”事前预测”。
具体怎么做?一个典型的方案是这样的:
把wafer在前道各工序中积累的量测数据——膜厚、CD、前层overlay值、alignment sensor信号、甚至设备传感器的读数——全部喂给一个ML模型(通常是gradient boosting或者neural network),让它学习这些输入变量和最终overlay结果之间的映射关系。模型训练好之后,在wafer进入光刻工序之前,就可以根据它前面几层的量测数据,预测这片wafer的overlay分布会是什么样的,然后提前调整曝光参数来补偿。
这就是所谓的前馈(feedforward)补偿。它的优势在于不需要等到曝光之后再去量测和反馈,而是在曝光之前就已经做好了针对性的修正。ASML把这个概念叫做”computational overlay”——不是去测量overlay,而是去计算和预测overlay。他们的实践表明,结合scanner内部传感器数据和ML模型,可以识别出传统量测手段未能发现的系统性和随机性overlay误差。
我自己在项目中的体会是,ML模型对overlay预测最有价值的地方有两个:一是对wafer-to-wafer variation的捕捉能力——每片wafer的前道工艺历史不同,ML模型能把这些差异转化为个性化的overlay预测;二是对非线性pattern的拟合能力,特别是wafer edge区域那些传统多项式搞不定的复杂分布。
当然,ML模型也不是万能的。数据质量很关键——如果量测数据本身有噪声或者偏差,模型学到的就是错误的关系。模型的泛化能力也需要验证,换了工艺条件或者新的产品,模型可能需要重新训练或者fine-tune。这些都是工程实践中需要踩的坑。
R2R闭环控制:让校正跟上工艺的变化
前馈补偿解决了”预测”的问题,但光有前馈还不够。工艺过程本身在持续drift,设备状态在变化,这些是前馈模型没法完全预测的。所以还需要一个反馈环——这就是R2R(Run-to-Run)闭环控制。
R2R的基本思路是:每跑完一批wafer,把ADI(After Develop Inspection)或AEI(After Etch Inspection)的overlay量测数据收集回来,和模型预测值做对比,计算残差,然后更新模型参数或者校正配方。这样模型就能持续适应工艺的变化,而不是停留在初始训练时的状态。
传统R2R用的是EWMA(指数加权移动平均)这类统计方法,简单有效但对复杂的drift pattern反应比较慢。引入ML之后,R2R可以做得更智能——比如用时间序列模型去捕捉设备drift的趋势,用异常检测算法去识别突发的overlay excursion,甚至可以根据设备PM(Preventive Maintenance)周期来自适应调整模型权重。
在实际产线上,一套成熟的R2R系统可以把Cpk(过程能力指数)提升40%到70%。这个数字意味着什么?意味着overlay的分布变得更集中、更稳定,超标的概率大幅降低。对良率的贡献是很直接的。
但R2R的工程化落地也有很多挑战。数据通路要打通——量测数据、设备数据、MES数据,这些散落在不同系统里的信息要能实时汇聚到R2R系统中。计算要够快——wafer在光刻机台上等着你算完校正值,latency大了直接影响throughput。模型的鲁棒性要够强——不能因为一个异常数据点就把校正值搞飞了。这些都是系统层面的工程问题。
在线控制的工程化实践
说到这里,就不得不提一个现实问题:上面说的这些AI模型和R2R系统,在实际产线上怎么部署?
这其实是很多fab面临的困境。算法团队可以在离线环境下用Python跑出很漂亮的结果,但要把模型部署到产线的实时控制环路里,涉及到的工程问题远比算法本身复杂——实时数据接入、模型推理延迟、异常处理、与MES/EAP系统的集成、model life cycle management等等。
NeuroBox E3200的overlay控制应用
这正是集芯科技NeuroBox E3200产品线要解决的问题。E3200是一个面向产线的在线AI平台,核心能力包括VM(Virtual Metrology)和R2R实时控制。在overlay控制这个场景里,它可以做几件事:
第一,打通数据通路。E3200直接接入光刻机台的SECS/GEM接口和量测设备的数据流,把原本分散的alignment数据、overlay量测数据、设备传感器数据汇聚到统一的数据平台上,实现数据的实时采集和清洗。
第二,在线VM预测。基于前道工序的量测数据,用训练好的ML模型预估每片wafer的overlay分布,为前馈补偿提供依据。这样不需要对每片wafer都做完整的overlay量测,可以在保证控制精度的前提下降低量测采样率,释放量测产能。
第三,R2R闭环校正。把量测反馈和模型预测结合起来,持续更新校正配方,让overlay控制跟上工艺的动态变化。E3200支持多种R2R策略,可以根据不同的产品和工艺需求灵活配置。
说白了,E3200做的事情是把”算法验证可行”到”产线稳定运行”之间的工程gap给填上。这中间的距离,做过的人都知道有多远。
写在最后
Overlay控制这个话题,技术细节可以展开得很深,但核心的趋势很清楚:随着制程节点的推进,传统的线性模型和简单的lot-to-lot反馈已经不够用了。AI/ML带来的是更强的非线性建模能力和从被动补偿到主动预测的范式转变,而R2R闭环控制则让这种能力能够在产线上持续、稳定地发挥作用。
当然,技术落地永远比理论分析要复杂得多。数据质量、系统集成、模型运维、人员培训——每一个环节都可能成为瓶颈。但方向是确定的,早走一步就能早受益一步。