马上注册,结交更多好友,享用更多功能,让你轻松玩转社区
您需要 登录 才可以下载或查看,没有账号?立即注册
×
在AI超算时代,芯片尺寸不再受设计而是可制造性的限制。NVIDIA的AI加速芯片(例如H100、GB200以及未来的Blackwell架构)最能体现这一点,它们突破了逻辑密度、功耗和面积的极限。这些尖端芯片在早期开发和量产过程中,都高度依赖台积电控制缺陷密度(D₀,发音为“D-zero”)的能力。 业界通常比较关注芯片的晶体管数量和计算吞吐量,但良率工程(yield engineering)却不太引人注意。然而,D₀的微小改进都可能意味着数十亿美元的晶圆成本节省或损失。本文将详细探讨缺陷密度、芯片面积、工艺成熟度和良率轨迹曲线之间的复杂关系,揭示台积电如何通过把握D₀的艺术和科学来赋能NVIDIA的AI芯片设计和制造。 本文将详细地解释D₀的物理含义和数学基础,以及它在芯片设计和良率建模中的关键作用。D₀不仅仅是一个统计参数,它还是一个将工艺质量与经济可行性关联起来的关键指标。本文涉及它的单位定义、它在良率预测模型(例如泊松良率模型)中的作用,以及它在实际制造场景中的实际应用方法。我们的目标是帮助读者全面了解先进半导体制造工艺中这一基本参数。 我们将讨论以下主题: 什么是缺陷密度? 缺陷密度(D₀)与工艺成熟度之间的关键联系(以台积电5nm节点为例) 深入洞察:D₀×芯片尺寸决定着芯片的商业可行性 D₀是连接先进工艺技术与商用芯片的桥梁 深入探讨AI芯片可制造性:缺陷密度与芯片面积的相互作用(Nvidia、AMD、英特尔、苹果) 台积电N5节点为何比N7和N10节点更快地达到稳定的低缺陷密度状态?
在半导体制造中,D₀是指缺陷密度指标,这个关键参数用于衡量晶圆每平方厘米面积内“致命缺陷”的数量(所谓致命缺陷就是严重到足以导致单个裸片失效)。D₀与芯片良率直接相关,通常使用泊松分布公式来表达: DY = e^{-D₀/A} 其中,DY表示芯片良率,D₀表示缺陷密度(缺陷数/cm²),A表示芯片面积(cm²)。根据该表达式,随着D₀或芯片面积的增加,芯片良率呈指数下降。因此,控制和最小化D₀对于保持高良率至关重要,尤其是在先进工艺节点。实际上,业界通常将100mm² 的芯片尺寸用作参考基准,尤其要与典型的Apple SoC 设计尺寸保持一致。
一、什么是缺陷密度? 缺陷密度衡量的是半导体晶圆特定区域内致命缺陷的平均数量。这些缺陷可能由各种原因导致,包括污染物、工艺偏差或设备异常等。缺陷密度越高,良率就越低,因为更多的芯片可能无法正常工作。例如,缺陷密度低于0.1个/cm² 时,良率可超过 90%,而缺陷密度高于 0.5个/cm² 时,良率则可能降至60% 以下。
上图显示了当芯片面积固定为1 cm² (100 mm²) 时,芯片良率 (DY) 随缺陷密度 (D₀) 的变化情况。 主要观察结果包括: 这就是我们之前中强调的原因:“在实践中,100 mm²的芯片尺寸通常被用作参考基准,尤其要与典型的 Apple SoC 设计尺寸保持一致。” 然而,值得注意的是,许多现实世界的AI加速器芯片尺寸都在600到800平方毫米之间,远大于100平方毫米的参考尺寸。这给良率带来了巨大的挑战。 为了说明这一点,我们模拟了缺陷密度D₀= 0.1时不同芯片尺寸的良率变化。结果令人震惊:随着芯片尺寸的增加,良率急剧下降,这使得维持经济的制造效率变得越来越困难。 这凸显了台积电非凡的制造能力。NVIDIA的高性能AI芯片通常采用超过800平方毫米的单片尺寸,而这得益于台积电卓越的工艺控制和缺陷缓解策略,才能实现商业上可行的良率。
为了深入了解台积电如何利用缺陷密度(D₀) 作为一个芯片项目从工程阶段转入量产的关键指标,我们将进一步探讨D₀在产能提升、工艺验证和良率预测中的实际作用。这包括它如何指导预测模型(例如基于泊松分布的良率模型)和整个芯片生命周期中的战略性工程决策。
我们还对不同芯片面积和缺陷密度(D₀) 水平的裸片良率 (DY) 进行了比较分析。结果图表清晰地展示了以下几点: 在芯片面积固定的情况下,较低的缺陷密度(D₀) 始终能带来更高的良率; 当D₀达到 0.5 时,即使是 200 mm² 的中等芯片尺寸,良率也急剧下降至 37% 以下; 相反,当D₀控制在0.02时,即使芯片尺寸高达800 mm²,良率仍能保持在85%以上。
这凸显了一个关键点:在大规模AI芯片设计中,控制D₀对于确定产品在量产中的可制造性、成本效益和经济可行性至关重要。 二、缺陷密度(D₀) 与工艺成熟度之间的关键联系(以台积电5nm节点为例) 随着先进半导体制造技术进入5nm时代,缺陷密度 (D₀) 已成为评估工艺成熟度和预测良率的关键指标。D₀能够直观地展现制造质量随时间的变化,尤其是在从早期开发过渡到量产的过程中。台积电涵盖 N10、N7和N5节点的工艺路线图展现了缺陷控制的显著改进,以及向量产准备的逐步推进。
在每个新节点的加速阶段,缺陷密度会随着时间的推移而显著下降,尤其是在量产前的三个季度。大多数工程验证(EV)、早期样品 (ES) 和认证样品 (QS) 都在此阶段进行。 一旦节点达到量产(MP) 状态,D₀通常会稳定在0.1以下,表明该工艺可靠且可制造。在量产后的几个季度中,D₀可能会逐渐提升至0.05,进入良率稳定和商业规模化阶段。 台积电5nm节点 (N5) 的缺陷密度收敛速度显著快于N7和N10:当 N5 达到量产状态时,D₀已处于 0.08-0.09 的范围内,甚至比量产后两个季度的 N7 更先进。这种更早的收敛表明,N5能够比之前的节点更快地支持大型高密度芯片(例如 Apple A14或NVIDIA AI芯片)。 与需要更多时间才能成熟的N10相比,N5工艺 D₀的快速降低凸显了台积电在工艺改进和风险管理方面日益增强的前沿能力。
台积电通过具体的D₀目标来定义量产前的每个阶段,从而帮助指导生产风险评估和商业化是否可行:通过在整个生命周期内严格管理D₀,台积电确保其工艺能够支持高复杂度 SoC、AI加速器和HPC芯片,并保持持续的高良率和经济可行性。
三、深入洞察:D₀X芯片尺寸决定着芯片的商业可行性 如前所述,芯片尺寸和缺陷密度(D₀) 紧密相关,它们共同决定了芯片是否具有经济可制造性。 当D₀= 0.1时,100平方毫米的芯片通常可以实现 90% 以上的良率。 对于大型芯片(例如800 平方毫米),理论良率模型表明,要实现高良率,需要极低的缺陷密度 (D₀),可能低于 0.02。然而,在实践中,这样的 D₀水平并不现实。即使是像台积电这样的领先代工厂,D₀通常也会饱和在 0.04 左右,这已经反映了高度成熟和优化的工艺。因此,本文分析使用D₀= 0.02 作为假设的建模参数,以说明芯片面积和缺陷密度对良率的影响,而不是建议可实现的实际制造条件。 正因如此,台积电凭借其卓越的工艺技术,能够量产高性能、大面积芯片,例如苹果的M1/M2 或 NVIDIA 的 H100/GB200。通过在量产 (MP) 开始前将 D₀降至 0.1 以下,并随着时间的推移进一步降至 0.05 以下,台积电即使在极端尺寸的芯片上也能确保稳定且经济高效的良率。 四、D₀是先进工艺技术与商用芯片之间的桥梁 缺陷密度(D₀) 远不止是晶圆良率的统计指标,更是下一代 SoC、AI 加速器和 HPC 级设计的技术把关者。从良率收敛曲线可以看出,D₀是工艺成熟度和商业部署准备就绪程度的可靠指标。 台积电能够在量产前将D₀降至 0.1 以下,并在量产期间进一步降至 0.05 以下,这充分证明了其为何仍然是全球最复杂逻辑芯片的首选代工厂。 D₀≈ 0.1 标志着启动风险生产和技术转移的阈值。在 D₀稳定在 0.04 或更低之前,良率始终处于次优状态。 D₀≈ 0.5 通常出现在早期研发阶段,但这也是英特尔和三星等竞争对手往往难以取得进展的阶段。从 D₀= 0.5 到 0.1 的过渡阶段,台积电明显领先;其他代工厂由于复杂的工程和工艺控制差距,往往在这个阶段停滞不前。 重要的是,台积电不会等到D₀达到 0.05 才开始技术转移。产量提升通常在 D₀≈ 0.1 时就开始了,即在“风险生产”阶段——产品和工艺团队合作,在实际流片过程中对技术进行压力测试。 降低D₀不仅仅是统计上的改进,它还涉及许多工程优化,例如: 1.控制芯片尺寸与布线布局 2.修整缺陷概率较高的边缘芯片 3.重新设计光罩图案、光刻配方和工艺窗口。 即使在风险生产开始后,D₀通常也需要三到四个季度才能从0.1降至0.05——这段时间必须进行积极的晶圆学习和产量调整。 这也是早期加密货币挖矿芯片在台积电工艺开发中发挥关键作用的原因:尽管利润率较低,但比特币和其他挖矿芯片却能提供高容量、逻辑密集型的工作负载。这些流片帮助台积电“挖掘”工艺数据,发现边缘工艺窗口故障,并加速抑制缺陷密度。 实际上,它们充当了整个逻辑过程的“深度扫描”角色——在高端客户进入之前,作为试验品测试工具来推动光刻、金属堆叠均匀性和产量良率的提升。 五、深入探究AI 芯片的可制造性:缺陷密度与芯片面积的相互作用 在先进的半导体制造和高性能AI 芯片设计中,缺陷密度 (D₀) 与芯片面积之间的相互作用是决定可制造性的关键因素。此处提供的图表展示了不同 D₀条件下的芯片理论良率曲线,并叠加了五个实际的高性能芯片示例,从而深入了解潜在的工艺挑战和架构策略。 AMD MI300X 展示了基于chiplet 的架构如何结合较低的 D₀(约 0.02),使系统即使在总芯片面积达到 800 mm² 的情况下也能保持 85% 以上的良率。这体现了其 CoWoS 先进封装和严格工艺控制的成熟度。相比之下,NVIDIA 的 H100 采用单片设计,而英特尔的 Ponte Vecchio 采用异构集成,其芯片面积分别约为 814 平方毫米和 620 平方毫米。当 D₀约为 0.05 和 0.04 时,它们的良率在 65% 到 75% 之间,这表明不同的设计架构对缺陷密度的反应有所不同。 另一方面,苹果的M2 Ultra 是一款大型单片 SoC,在 D₀较高(约 0.08)的情况下良率急剧下降。与此同时,台积电的一款小型测试芯片面积仅为 40 平方毫米,即使在 D₀ 为 0.2 的情况下也能保持高良率,这凸显了小芯片设计天然的缺陷容限优势。 这不仅反映了理论良率模型,也与实际制造案例高度吻合。这凸显了为何现代高性能芯片越来越多地采用Chiplet 架构、CoWoS 和 SoIC 等先进封装技术以及保持低缺陷密度 (D₀) 的成熟工艺节点——这些因素共同促成了芯片设计既强大又可大规模生产。 六、台积电N5 节点为何比 N7 和 N10 节点更快地实现稳定的低缺陷密度? 历史上,每个新工艺节点在早期量产过程中都面临着高缺陷密度的挑战。然而,台积电的5nm (N5) 工艺打破了这一模式,与其前代工艺 N7 和 N10 相比,实现了快速的良率提升和更快的缺陷密度稳定。本文从技术和运营角度探讨了这一卓越性能背后的四个关键原因。 1.模块化工艺传承与演进式设计 与从N10到N7的颠覆性跨越(引入了复杂的多重曝光和第一代FinFET)相比,N5是对先前工艺节点的延续和优化。台积电沿用了N7的许多基础模块,包括金属堆叠设计、后段制程 (BEOL) 控制和设计规则平台,同时集成了更成熟的EUV光刻模块。 这种模块化复用策略使N5能够建立在经过验证的工艺基础上,避免了重新探索每个参数,并显著缩短了缺陷学习曲线。 2.EUV集成降低了差异性和缺陷源 尽管N5是台积电首个大规模采用EUV光刻技术的节点,但该公司已通过N7+节点验证了其准备就绪状态。凭借这些经验,N5凭借经过调整的EUV曝光系统和优化的套刻控制投入生产。 EUV 的主要优势在于大幅减少对多重曝光的需求,从而最大限度地减少套刻误差和错位问题——这两者都是导致早期工艺缺陷的主要因素。因此,EUV 在降低 D₀方面发挥了关键作用,尤其是在逻辑层和金属层方面。 3.来自早期核心客户的同质设计输入 苹果是N5 工艺的主要客户,其贡献的 SoC 设计高度标准化,产量巨大,PPA(功耗、性能、面积)目标明确。这种高度一致的设计使台积电能够专注于早期工艺调整,打造一致的架构。 相比之下,N7 工艺的量产必须适应多样化的客户和架构组合,包括移动芯片和高性能计算芯片,这带来了更多的设计可变性。N5 工艺的集中设计学习能够更快地进行缺陷根源分析和良率优化。 4.数字化良率学习和AI 驱动的工艺优化 从N7 工艺开始,台积电就投入巨资,用于数字化工艺监控和反馈系统。这包括电子束检测 (e-beam)、自动缺陷模式分类以及近乎实时识别热点和良率瓶颈的机器学习工具。 N5 是第一个充分利用该平台的节点,创建了从缺陷检测到参数调整的闭环系统。这显著缩短了控制 D₀所需的时间,并提高了整体产能提升效率。 N5 不仅仅是一项工艺突破,更是平台的里程碑。台积电在N5 节点快速降低 D₀ 并非昙花一现,而是平台能力积累的结晶——模块化复用、设计一致性、EUV 就绪性和数字化工艺控制。随着芯片架构以及 CoWoS 和 SoIC 等先进封装技术的不断发展,我们预计 N3 和 N2 等即将推出的节点良率学习也将加速。
此图展示了在五种不同缺陷密度(D₀) 条件下(D₀= 0.5、0.2、0.1、0.05 和 0.002),芯片面积从0到800平方毫米的完整芯片良率曲线: 每条曲线都经过平滑渲染,清晰地展现了良率如何随着芯片面积的增加而下降,凸显了芯片尺寸和可制造性之间的权衡。 值得注意的是,该图表表明,将D₀保持在 0.01 以下对于在大尺寸芯片(例如 800 mm²)下维持可接受的良率至关重要,尤其是大规模生产的高性能AI 和 HPC 芯片。 此可视化图表可为工程团队评估可接受良率、芯片面积和工艺成熟度之间的权衡空间提供实用参考,从而支持在早期架构规划和工艺节点选择中做出更明智的决策。
最后,需要澄清的是,这是一个理论模型,数学良率模型与实际制造结果之间始终存在差距。 例如,虽然AMD MI300X 采用芯片总面积为 800 mm² 的 chiplet 架构,但该模型假设的缺陷密度 (D₀) 仅为 0.02,在此条件下仍可实现非常高的良率。在此背景下,D₀作为数学模型中的概念参数,用于说明当缺陷密度足够低时,即使是非常大的芯片(通过模块化设计和块级冗余)理论上也能维持较高的制造良率。 然而,在实践中,实现D₀= 0.02 几乎是不可能的。即使是台积电,尽管其在先进节点的良率优化方面不断取得进展,其 D₀ 通常也会在 0.04 左右达到饱和。因此,在本分析中使用 D₀ = 0.02 仅供参考,旨在强调在理想缺陷控制条件下大面积设计的潜力,不应被解读为实际可制造性的反映。 相比之下,NVIDIA 的 H100 采用单片设计,芯片面积为 814 平方毫米。当使用更实际的D₀(约为0.05)时,良率估计约为66%,这凸显了大型单片芯片在良率方面面临的挑战。 英特尔的Ponte Vecchio采用异构集成(Co-EMIB + Foveros),总集成面积为620 mm²。通过多芯片模块化方法,它增强了工艺容错能力,即使在中等缺陷密度下也能保持相当好的良率。 苹果的M2 Ultra代表了大型单片SoC设计。尽管采用成熟的工艺节点制造,但在更高的D₀条件下,它仍然面临良率压力。 最后,台积电的小面积测试芯片,即使D₀高达0.2,由于尺寸较小,仍能获得良好的模型良率——这表明芯片面积和缺陷密度在决定良率结果方面存在非线性关系。
|