施耐德电机:2028 年人工智慧用电超越 2021 年冰岛用电

施耐德电机:2028 年人工智慧用电超越 2021 年冰岛用电

因市场人工智慧需求庞大,法国重电大厂施耐德电机 (Schneider Electric) 估计,2023 年人工智慧用电计约 4.3GW,略低于赛普勒斯 2021 年用电 4.7GW,人工智慧用电将以 26%~36% 复合年增长率 (CAGR) 成长,到 2028 年人工智慧用电将从 13.5GW 增至 20GW,比冰岛 2021 年用电还多。

施耐德电气表示,2023 年全球所有资料中心用电达 54GW,人工智慧用电达 4.3GW。训练和推理分配为 20% 功耗训练,80% 推理,代表人工智慧用电占今年资料中心总用电约 8%。

展望 2028 年,施耐德预估资料中心总用电增至 90GW,人工智慧用电达 13.5GW~20GW。到 2028 年,人工智慧可能消耗资料中心总用电量 15%~20%,人工智慧用电比例五年内显着增加,且训练和推理比例略变,训练 15%,推理 85%。

人工智慧功耗占资料中心用电比例不断提升,因人工智慧用电加剧、人工智慧 GPU 和 CPU 效能进步,以及资料中心硬件要求不断提高。 Nvidia 2020 年 A100 功耗达 400W,2022 年 H100 功耗达 700W。除了 GPU,AI 服务器还有 CPU 和网卡也会耗电。

人工智慧训练相关都需大量运算资源,GPU、专用 ASIC 或 CPU 服务器等。人工智慧丛集规模受模型复杂性和规模影响,也是用电量决定因素。越大人工智慧模型需要更多 GPU,增加用电需求。有 22,000 个 H100 GPU 的丛集用到约 700 个机架,基于 H100 的机架可安装 8 套 HPE Cray X670 GPU 加速服务器,机架总用电量为 80kW。施耐德电气指整个丛集就需约 31MW 电力,还不包括冷却等基础设施功耗。

这些丛集和 GPU 训练时通常满载执行,加上网络传输功耗也有关键作用,复杂网络基础设施对支援分散式训练高速数据传输至关重要,加剧人工智慧资料中心用电。

人工智慧运行需高耗电 ASIC、GPU、CPU、网卡和 SSD,散热系统也是重大挑战。有效冷却解决方案对保持最佳性能,并防止硬件故障或失效都为关键,但液冷太贵,使资料中心用电需求增加。

施耐德电气预估,资料中心人工智慧硬件用电不会降太快,机架功耗达 100kW 或更高,建议从传统 120V / 208V 过渡到 240V / 415V,以适应人工智慧负载高功率密度。冷却系统强烈建议从空冷转向液冷,以提高处理器可靠性和能源效率,因应发展需求。

(首图来源:Pixabay)

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。