当 AI 服务器对散热技术需求变高!为何趋势从“气冷”走向“液冷”?

当 AI 服务器对散热技术需求变高!为何趋势从“气冷”走向“液冷”?

辉达(NVIDA)执行长黄仁勋今年在 COMPUTEX 2023掀起 AI 服务器浪潮,双鸿董事长林育申指出,其中有一场美系大客户演说所展示的服务器产品,几乎都是双鸿做的水冷散热模组,而双鸿布局水冷散热模组多年,正好为这股 AI 浪潮抢占先机,但是 AI 服务器对散热要求越来越高,为何趋势从“气冷”走向“液冷”?

高速运转使散热从“气冷”走向“液冷”

从散热技术来说,林育申指出,目前散热模组是以含有热导管技术的主被动混合式散热技术为主,热管散热模组是将风散、散热片、热导管等元件设计组合而成,能使内部电子零组件享有均温散热的运作环境,使电子设备运作更趋稳定,但是现在下游终端电子产品走向多功能与轻薄化,使得散热模组厂转而设计以均热板、热导管为主的散热解决方案。

目前散热模组分为“气冷散热”和“液冷散热”两种,其中气冷散热就是用空气做为媒介,透过热介面材料、均热片(VC)或热导管等中间材料,由散热片或风扇与空气对流进行散热,而“液冷散热”则是透过,或浸没式散热,主要就是透过与液体热对流散热,进而使晶片降温,但是随着晶片发热量的增加与体积的缩小,晶片热设计功耗(TDP)的提高,气冷散热逐渐不敷使用。

随着 ChatGPT 的崛起,生成式 AI 更是带动服务器的出货上扬,连带要求散热模组的规格升级,推动散热模组走向液冷方案升级,以满足服务器对散热性和稳定性的严格要求,林育申指出,双鸿从气冷散热技术开始,早在 10 年前就透过 IBM 技转液冷散热技术,并提供水冷背门,让客户可以不用改变现有的资料中心基础建设,就能直接加挂水冷背门到机柜使用。

当 AI 服务器对散热技术需求变高!为何趋势从“气冷”走向“液冷”? AI与大数据 图2张

2025 年将走向气冷、液冷并行时代

受到 AI 应用带动相关半导体技术发展,ChatGPT 的 GPT-3 导入更是让 AI 演算法参数量成长到 1750 亿,使得 GPU 运算力要成长百倍目前业界多以液冷中的单相浸没式冷却技术,解决高密度发热的服务器或零件散热问题,但仍有 600W 的上限值,因为 ChatGPT 或更高阶的服务器散热能力须高于 700W 才足以因应。

随着物联网、边缘运算、5G 应用的发展,资料 AI 带动全球算力进入高速成长期,下一代的散热模组设计,主要有两大方向,ㄧ是使用 3D 均热板(3DVC)升级现有散热模组,二是导入液冷散热系统,改用液体当作热对流介质,提升散热效率,因此 2023 年液冷测试案量显着增加,但是 3DVC 终究只是过渡方案,预估 2024 年到 2025 年将进入气冷、液冷并行的时代。

根据研究机构 TrendForce 的统计,2022 年搭载 GPGPU(General Purpose GPU)的 AI 服务器出货量比重约 1%,但是 2023 年受到 ChatGPT 应用的带动,预期 AI 服务器出货量将成长 38.4%,整体 2022 年到 2026 年的 AI 服务器出货量年复合成长率达 29%。

当 AI 服务器对散热技术需求变高!为何趋势从“气冷”走向“液冷”? AI与大数据 图3张

“液冷”散热将成 AI 晶片主流

由于新一代服务器 TDP 提升到接近气冷散热的极限,因此电子科技大厂纷纷开始测试液冷散热,或增加散热空间,像是英特尔(Intel)的 Eagle Stream、超微(AMD)的 Genoa TDP 350-400W 就达气冷极限,使得液冷散热成为 AI 晶片主流,而 NVIDA H100 的 TDP 就达 700W,由于气冷采 3DVC,普遍需 4U 以上空间,并不符合高密度部署架构。

以散热系统占资料中心总耗能约 33% 来看,减少总用电量降低电力使用效率(Power Usage Effectiveness)的方式,包含改善散热系统、资讯设备,并使用再生能源,而水的热容量是空气的 4 倍,因此导入液冷散热系统,液冷板只需要 1U 的空间,根据 NVIDIA 测试,若要达到相同算力,液冷所需的机柜量可减少 66%、能耗可减少 28%、PUE 可由 1.6 降到 1.15,并可提升运算效能。

当 AI 服务器对散热技术需求变高!为何趋势从“气冷”走向“液冷”? AI与大数据 图4张

美系大厂客户采用双鸿散热模组的关键

液冷又分为“水冷”和“油冷”,目前使用最大量的为水冷,林育申指出,现在 AI 服务器几乎都采用水冷散热方案,像是 NVIDIA GH100 的 TDP 超过 700W 就必须使用水冷散热,虽然目前占双鸿营收比重仍小,但是 AI 服务器与传统服务器的平均销售单价(ASP)相差达 10 倍,因此将有助于双鸿下半年产品结构的转变,预估 2023 年 AI 服务器将可占到 5~10%。

林育申指出,美系大客户采用 NVIDIA GH100 GPU 的 AI 服务器,其水冷散热模组几乎都是由双鸿供应的主要关键,就在于双鸿耕耘水冷散热解决方案已经超过 10 年,由于导入水冷的困难就在于成本和漏水,但是双鸿以研究水冷超过 10 年的经验,已经可以逐步克服漏水的问题,双鸿布局水冷散热模组多年,正好为这股 AI 浪潮抢占先机。

林育申强调,高速运算导致 TDP 不断提升,AI 服务器对散热的要求越高,传统热导管散热已接近极限,势必要导入水冷散热模组,目前双鸿已有不少客户导入,包括美系大客户,以目前的产业市况来看,虽然水冷散热导入得比预期快,但是要在 2023 年全面导入水冷还不太可能,预估应该要到 2024 年,并将在 2025 年迎来大爆发。

(首图来源:Pixabay)

延伸阅读:

  • AI 服务器成中国台湾供应链救世主,盘点重返荣耀的关键产业有哪些
  • 专攻资料中心推荐系统的 IC 设计新秀创鑫智慧,它凭什么能在“高能效”打败 NVIDIA
  • AI 服务器话题持续,海英俊:已在服务器占半数市场
  • AI 服务器商机涌现!代工大厂布局总整理,谁订单吃好吃满?

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。