2024 年北美四大云端服务业者对高阶 AI 服务器需求量逾六成

2024 年北美四大云端服务业者对高阶 AI 服务器需求量逾六成

TrendForce 最新预估,以 2024 年全球主要云端服务业者(CSP)对高阶 AI 服务器(含搭载 NVIDIA、AMD 或其他高阶 ASIC 晶片等)需求量观察,美系四大 CSP 业者微软、Google、AWS、Meta 各家占全球需求比重分别达 20.2%、16.6%、16% 及 10.8%,合计超过六成,居全球领先位置。又以搭载 NVIDIA GPUAI 服务器机种占大宗。

2024 年北美四大云端服务业者对高阶 AI 服务器需求量逾六成 AI与大数据 图2张

受美禁令影响,NVIDIA后续发展仍有挑战

NVIDIA近期整体营收来源以资料中心业务为关键,主因GPU服务器占整体AI市场比重高达六至七成,惟后续仍须留意三大状况,可能使NVIDIA发展受限。一,受美国禁令箝制,内地官方更致力AI晶片自主,华为仍被NVIDIA视为可敬对手。NVIDIA因应禁令推出的H20等内地特规方案,性价比可能不及H100或H800等,内地客户采用度可能较保守,影响NVIDIA市占率。

二,具规模及成本考量下,美系大型CSP业者除Google、AWS外,微软、Meta等亦有逐年扩大采自研ASIC趋势。三,AMD同业竞争,AMD采高性价比策略,对抗NVIDIA同级品,AMD价格仅60%~70%,甚至代表性或具规模客户能以更低价策略方式抢进市场,2024年尤以微软最积极采纳AMD高阶GPU MI300方案业者。

NVIDIA为维持领先,将更致力拓展多元组合产品线

NVIDIA面临潜在隐忧,亦更积极加速拓展多元产品线,以因应不同客户群。今年起汰换A100,以价格更高的H100系列为主轴。除H100外,第二季末开始小量出货搭载更高HBM3e规格的H200。另NVIDIA价格将更积极采差别订价,H100采部分折价策略,H200应维持H100原价格水位,以提供更高性价比,稳固云端CSP客户。NVIDIA将采用NRE(Non-recurring engineering Expense)模式,与MetaGoogle、AWS及OpenAI等厂商展开洽谈,目标扩及电信、车用及电竞客户。

此外,NVIDIA下半年将推出新B100产品,相较H系列效能可望再提升,HBM记忆体容量高H200约35%~40%,以因应更高效能HPC或加速LLM AI训练需求。中低阶产品除L40S针对企业客户做边缘端较小型AI模型训练或AI推论外,另规划以L4取代T4为云端或边缘AI推论应用。

为避免2023年GPU供应不足问题,NVIDIA亦积极参与CoWoS及HBM等扩建产能需求,第二季相关原厂产能逐步开出后,原交付Lead Time平均约40周也可减半,逐步去除下游供应链因GPU短缺使AI服务器供应进度受阻问题。

(首图来源:Pixabay)

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。