我们从2011年坚守至今,只想做存粹的技术论坛。  由于网站在外面,点击附件后要很长世间才弹出下载,请耐心等待,勿重复点击不要用Edge和IE浏览器下载,否则提示不安全下载不了

 找回密码
 立即注册
搜索
查看: 6|回复: 0

[业界/制造] 英伟达重要合作伙伴预测10年后芯片功耗将达功耗15360瓦!浸没和嵌入式液冷将成为必选

[复制链接]
  • TA的每日心情
    慵懒
    昨天 23:04
  • 签到天数: 81 天

    [LV.6]常住居民II

    1604

    主题

    405

    回帖

    1568

    积分

    二级逆天

    积分
    1568
    发表于 2025-7-6 18:52:17 | 显示全部楼层 |阅读模式

    马上注册,结交更多好友,享用更多功能,让你轻松玩转社区

    您需要 登录 才可以下载或查看,没有账号?立即注册

    ×
    01.Kaist Teralab预测芯片TDP将达15360瓦
    近日,英伟达的重要芯片研发合作伙伴韩国科学技术研究院(Kaist Teralab)发表文章称:目前AI GPU 的功耗稳步上升,预计未来 AI 处理器集成更多计算能力和 HBM 芯片,功耗还将持续飙升。预计未来 10 年,AI GPU 的热设计功耗 (TDP) 将一路飙升至 15,360 瓦。未来需要相当极端的冷却方法,包括浸入式冷却甚至嵌入式冷却。
    1852125a6c683d.png
    185212e1e4bb81.png
    同时韩国科学技术研究院(KAIST)的领导Joungho Kim教授最近在接受《The Elec》采访时指出,冷却技术将成为未来HBM技术竞争的关键。随着领先的内存制造商在 HBM 开发方面取得进展,一旦 HBM5 进入商业化阶段(可能在 2029 年左右),冷却技术预计将成为一个关键的竞争因素。这意味着,未来芯片性能的差异,不再仅仅依靠谁的运算更快,而是谁的冷却做得更好。
    Kim 还解释说,虽然封装目前是半导体制造的主要差异化因素,但随着 HBM5 的到来,冷却的重要性将显著提升。他进一步指出,随着从 HBM4 开始,基础芯片开始承担 GPU 的部分工作负载,导致温度升高,冷却变得越来越关键。目前 HBM4 使用的液冷方法(冷板式液冷)在未来将面临局限性。为此,HBM5 结构预计将采用浸没式冷却,将基座芯片和整个封装都浸入冷却液中。
    这里解释一下什么是HBM:HBM(High Bandwidth Memory)是一种将多个DRAM芯片垂直堆叠,并通过硅通孔(TSV)进行高速连接的三维内存结构。相比传统的DDR内存,HBM拥有更高的数据传输速度、更小的占板面积,并且功耗更低。在目前的AI芯片中,比如NVIDIA的H100或AMD的MI300系列,HBM已经成为核心配置之一。尤其是在训练像GPT-4或大模型时,HBM能将数千亿参数的访问延迟降低到极小。但问题也随之而来:数据吞吐越快,发热就越多(下方是目前主流芯片的HBM架构,主要是HBM3架构)。
    185212ad216496.png
    韩国科学院对未来10年与英伟达芯片功耗和冷却方案做出的大胆预测。
    185213838758e8.png
    02. 未来的 HBM
    架构和冷却创新
    由金教授领导的韩国科学技术研究院(KAIST Teralab)公布了HBM4至HBM8的技术路线图,涵盖2025年至2040年。该路线图概述了HBM架构、冷却方法、TSV密度、中介层等方面的进展。金教授还指出,正如报告所示,预计通过异构和先进的封装技术,基础芯片将转移到HBM堆栈的顶部。
    18521381593b05.png
    目前,风冷系统(包括铜散热器和高压风扇)可以满足英伟达 H100 AI 处理器。然而,随着 英伟达的 Blackwell 将其散热功率提升至 1200W,Blackwell Ultra 又将其 TDP 提升至 1400W,液冷解决方案几乎成为必需。接下来2026年的Rubin 的散热性能将进一步提升,TDP 将提升至 1800W;而 Rubin Ultra 的 GPU 芯片和 HBM 模块数量将翻倍,TDP 也将一路飙升至 3600W。韩国科学技术研究院 (KAIST)的研究人员认为:英伟达及其合作伙伴将在 Rubin Ultra 中使用直接芯片 (D2C) 液冷技术,但对于 Feynman,他们将将使用更强大的冷却技术。韩国科学技术研究院 (KAIST) 的研究人员预测:AI GPU 模块(尤其是 Nvidia 的 Feynman)的功耗将达到 4,400W,而业内其他一些消息人士则认为,Nvidia 的 Feynman Ultra 的 TDP 将提升至 6,000W。如此极端的散热要求需要采用浸入式冷却技术,即将整个 GPU-HBM 模块浸入液体中。此外,此类处理器及其 HBM 模块预计将通过热通孔 (TTV) 引入,TTV 是硅基板上专用于散热的垂直通道。这些 TTV 将与嵌入 HBM 模块基片中的热粘合层和温度传感器配对,以实现实时热监控和反馈控制。预计到 2032 年,浸入式冷却将足够好,届时后 Feynman GPU 架构将把每个封装的 TDP 提高到 5,920W(后 Feynman)甚至 9000W(后 Feynman Ultra)。
    185213af7d22b0.png
    185214c9f449cf.png
    1852142d89d930.png
    GPU 模块中的主要功耗是计算芯片。随着后 Feynman 时代 HBM 堆栈数量增加到 16 个,并且 HBM6 的单堆栈功耗增加到 120W,内存的功耗将在 2000W 左右,约占整个模块功耗的三分之一。

    预估到 2035 年,AI GPU 的功耗将增至约 15,360 瓦,这将需要为计算和内存芯片组配备嵌入式冷却结构。该团队提出两项关键创新:将热量从热点横向转移到冷却接口的热传输线 (TTL),以及允许冷却液垂直流过 HBM 堆栈的流体硅通孔 (F-TSV)。这些技术直接集成到中介层和硅片中,以保持热稳定性。

    到 2038 年,全集成散热解决方案将更加普及和先进。这些解决方案将采用双面中介层,实现两侧垂直堆叠,并在整个过程中嵌入流体冷却。此外,GPU-on-top 架构将有助于优先从计算层散热,而同轴 TSV 则有助于平衡信号完整性和热流。

    1852143ea8519c.png
    03.关于韩国国家科学院
    韩国科学技术研究院(Kaist Teralab)是英伟达的重要合作伙伴之一。它帮助英伟达解决硅片之间的互连、HBM 存储器以及 AI 加速器的封装问题。在 ISC High Performance 2025 大会上,Kaist Teralab 发布了截至 2038 年的 HBM 未来发展路线图,以及截至 2035 年的英伟达加速器发展计划。


    回复

    使用道具 举报

    您需要登录后才可以回帖 登录 | 立即注册

    本版积分规则

    每日签到,有金币领取。


    Copyright ©2011-2024 NTpcb.com All Right Reserved.  Powered by Discuz! (NTpcb)

    本站信息均由会员发表,不代表NTpcb立场,如侵犯了您的权利请发帖投诉

    ( 闽ICP备2024076463号-1 ) 论坛技术支持QQ群171867948 ,论坛问题,充值问题请联系QQ1308068381

    平平安安
    TOP
    快速回复 返回顶部 返回列表