AI 服务器话题持续,海英俊:已在服务器占半数市场

AI 服务器话题持续,海英俊:已在服务器占半数市场

为因应人工智慧AI)运算需求,各大品牌厂积极导入建置 AI 服务器,电源供应器大厂台达电在资料中心与散热领域耕耘多年,在 AI 服务器领域也有其优势,台达董事长海英俊表示,与品牌厂、加工厂关系密切,今年服务器领域有望维持 20~30% 的成长。

ChatGPT 持续发酵,AI 应用已经成为近期市场的重要话题,人工智慧应用亦相当广泛,其中机器学习、深度学习都包含在内,未来随着更多公司,AI 变得更聪明,学习速度也更快。

但若要完成上述运算,晶片运算能力就显得非常重要,在生成式 AI、大型语言模型驱动带动算力需求下,AI 服务器及 AI 晶片需求看涨,TrendForce 上月也发布最新预估数字,预估 2023 年 AI 服务器出货量近 120 万台,年增 38.4%,占整体服务器出货量近 9%,到 2026 年将占 15%,同步上修 2022~2026 年 AI 服务器出货量年复合成长率至 29%。

AI 服务器包含搭载 GPU、FPGA、ASIC 等,还有周边的服务器机壳、服务器电源、散热等,台达执行长郑平指出,AI 是一个笼统的概念,就像 IoT(物联网)架构都是 AI,AI 服务器并非个别单一产品,需要不同系统搭配整合应用。

郑平表示,台达在电源以及散热领运耕耘多年,台达电在 AI 服务器的优势在于,能源转换效率跟系统能效跟散热搭配,包括热模拟、风流跟水流散热方式。

郑平指出,除了传统的风冷外,台达还有提供水冷及浸没式散热,都有产品线配合,无论是晶片端散热产品、AI 准系统或服务器、资料中心相关电源管理、气冷与水冷散热解决方案都已开始出货。

台达推出的“两相浸没式液冷”资料中心解决方案,可将电子设备直接浸泡在不导电、沸点低易蒸发的冷却液中,透过冷却液的相变带走热量,提高散热效率,比起传统的气冷式散热大幅减少 84% 能耗,目前已推出但还在实验阶段。

生成式 AI 所需的服务器、运算都比传统服务器多 3~10 倍,用电需求与热耗也比传统服务器高出许多,海英俊指出,对于 AI 服务器来说,散热就是一大问题,光靠风扇已经不够了。

海英俊指出,台达在资料中心、散热解决方案发展许久,与品牌厂、加工厂等大厂都有联系,目前在服务器市场已经占据大概一半的市场了。

郑平也指出,AI 服务器与非 AI 服务器都是在资料中心内运算,较难区分,但资料中心市场将会持续成长,也会有各式各样的应用。目前服务器冷却大多搭配气冷与水冷即可,配备完之后都会用散热软件去模拟找出最终最佳方案,且各大资料中心厂及半导体晶片厂都是台达客户,近几年也建置非常多的资料中心,后续也会持续建置。

尽管服务器产业今年上半年因高库存传出需求弱讯号,但郑平先前也表示,“现在服务器市场看起来还好,没有想像差”,海英俊也指出,今年服务器的成长仍可维持去年,在 20~30% 的成长。

AI 将带动高阶服务器对大瓦数电源供应器以及高效散热配件,同时在 ESG 要求下,未来资料中心也会需要更多节能、高效需求,台达电均可提供完整解决方案,未来持续受惠可期。

(首图来源:AI资源网)

延伸阅读:

  • AI 服务器成中国台湾供应链救世主,盘点重返荣耀的关键产业有哪些
  • 专攻资料中心推荐系统的 IC 设计新秀创鑫智慧,它凭什么能在“高能效”打败 NVIDIA
  • 当 AI 服务器对散热技术需求变高!为何趋势从“气冷”走向“液冷”?
  • AI 服务器商机涌现!代工大厂布局总整理,谁订单吃好吃满?

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。