[业界/制造] AI服务器冷板式液冷技术,最高可将散热效率提升3000倍

[复制链接]
查看5 | 回复0 | 昨天 22:59 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区

您需要 登录 才可以下载或查看,没有账号?立即注册

×

AI服务器液冷技术是当前数据中心应对高算力需求与散热挑战的核心解决方案。液冷技术也就是通过液体介质直接接触或间接传导带走AI服务器高密度芯片产生的热量。为什么需需要液冷技术,这主要源于应对芯片功耗飙升、满足高功率密度需求、符合政策与经济性要求以及提升系统稳定性与可靠性等多方面的迫切需求。
随着AI技术的飞速发展,算力需求驱动芯片功率不断攀升,以英伟达H100 GPU为例,其功耗高达700W,下一代B100芯片预计突破1000W,远超风冷单点散热极限(约700W),传统风冷已无法满足散热需求。AI集群对算力密度的要求导致单机柜功率从10kW跃升至120kW,传统风冷需增加空调数量,成本与能耗双高,而液冷技术成为唯一可行方案。
从政策和经济性层面来看,全球范围内数据中心PUE(电源使用效率)政策趋严,中国要求新建数据中心PUE低于1.3,传统风冷PUE普遍在1.5以上,液冷则可将PUE降至1.2以下,完美契合政策需求。同时,液冷技术可降低30% - 50%的散热能耗,提升服务器空间利用率20% - 50%,以10万台服务器规模的数据中心为例,液冷方案每年可节省电费超亿元。
服务器中的CPU、GPU等核心芯片在运行时会产生大量热量,当芯片温度升高时,其内部载流子的迁移率会发生变化,导致芯片工作频率降低,直接影响服务器的运算速度和处理能力。长时间处于高温状态下,芯片内部的电路元件可能会出现热疲劳现象,加速元件老化,缩短其使用寿命。液冷技术通过液体介质将芯片的热量高效带走,能稳定CPU温度,防止电子元件因过热出现性能下降、能耗增加、效率降低及永久性损坏等问题。
相比于传统散热技术,液冷技术优势明显。首先散热效率提升,液体的比热容和导热系数远高于空气,冷板式液冷技术可将散热效率提升1000-3000倍,满足单芯片TDP(热设计功耗)超700W的散热需求。其次是能效优化,液冷系统可显著降低数据中心PUE(能源使用效率),例如阿里云数据中心采用冷板式液冷后,PUE从1.5降至1.2,能耗降低约20%。
三是空间利用率提高,液冷系统无需大规模风扇阵列,单机柜功率密度可提升至50kW以上,较传统风冷提升3-5倍。四是噪音与可靠性改善:液冷系统噪音降低15dB以上,同时减少热应力对芯片寿命的影响,提升设备可靠性。
从技术路线上来看,液冷技术主要有冷板式液冷和浸没式液冷两种,冷板式液冷技术,成熟度高,兼容性强,是目前主流方案,市占率超80%,适用于高密度计算场景;浸没式液冷,散热效率更高,但需对服务器进行定制化改造,成本较高,适用于超算中心等极端场景。
如阿里云在核心数据中心大规模部署冷板式液冷,PUE降至1.2,能耗成本降低30%;腾讯云上海数据中心采用冷板式液冷技术,服务器故障率降低30%,运维成本显著下降;超聚变FusionPoD for AI整机柜液冷服务器通过TÜV南德认证,支持100%全液冷散热,并获得中互金冷板式液冷服务器防泄漏认证,适用于金融领域高可靠算力场景;科华数据推出解耦型冷板式液冷数据中心解决方案,应用于中国移动长三角数据中心,算力液冷集装箱出口海外。
未来,AI服务器液冷技术将会呈现几个发展趋势,首先是液冷与AI芯片直接集成将成为趋势,进一步提升散热效率;其次是通过模块化设计与供应链协同,降低液冷系统初期投入成本,推动技术普及;第三是开发低GWP冷却液,优化液冷系统能效比,助力数据中心实现碳中和目标;第四是推动液冷接口、架构、能效等标准统一,构建开放兼容的液冷产业生态。
2258406bc44595.png


回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

hdy

222

主题

317

回帖

639

积分

二级逆天

积分
639