Cloud AI Server 需求强劲,促 NVIDIA FY2Q24 资料中心业务占比首次突破 76%

Cloud AI Server 需求强劲,促 NVIDIA FY2Q24 资料中心业务占比首次突破 76%

NVIDIA 最新财报(FY2Q24)显示,资料中心业务达 103.2 亿美元,季成长率 141%,年成长率更高达 171%,且 NVIDIA 看好后续成长力道。TrendForce 认为,NVIDIA 高营收成长动力来自资料中心 AI 服务器解决方案,主力产品有 AI 加速晶片 GPUAI 服务器参考架构 HGX 等,均为大型资料中心的 AI 基础设施。

TrendForce预期,NVIDIA将进一步整合软硬件资源,更细致将高阶及中低阶GPU AI加速晶片,与各ODM或OEM绑定合作软硬件系统认证模式。除了加速CSP云端AI服务器基础设施布建,也和VMware等合作Private AI Foundation等方案,将触角延伸至边缘企业AI服务器市场,以支撑今明两年资料中心业务稳定成长。

Cloud AI强劲需求驱动,NVIDIA资料中心业务占比超过76%

NVIDIA近年积极布局资料中心业务,FY4Q22资料中心业务营收约占42.7%,尚落后Gaming业务营收约2个百分点,FY1Q23后正式超越Gaming业务,占比逾45%。今年起各大CSP大举投资ChatBOT及公有云各种AI服务基础设施后,NVIDIA更直接受惠,FY2Q24资料中心业务营收占比一举突破76%。

NVIDIA将分攻云端及边缘资料中心AI应用市场

TrendForce观察,预估NVIDIA高阶GPU产品销售策略,将于下半年后转变,原高阶AI服务器主打搭载A100及H100,市场需求大好下,改成主攻售价更高的H100,才能有效刺激资料中心营收向上。

中阶GPU方面,以近期L40s为主打方案,有几个策略意义。首先,高阶H100系列受限于CoWoS、HBM等产能有限,L40s搭配GDDR记忆体,不须CoWoS封装,可加速导入中阶AI服务器市场,补足A100 PCIe介面对企业客户需求缺口。

其次,L40s也主攻企业客户,不需使用如ChatGPT庞大的参数模型,主攻较小型化(约数十billion至百billion参数量以下)各专业领域AI Training应用,亦针对边缘AI Inference或影像分析等使用。最后,内地客户因地缘政Z问题,导致高阶GPU H系列供应受阻风险,可用L40s补足。低阶GPU系列以L4或T4系列为主打,边缘AI服务器即时AI推论或影像分析使用,并更强调较低价、高C/P值产品特性。

HGX及MGX等AI服务器参考架构是NVIDIA下半年主攻AI方案的利器

TrendForce观察,近期NVIDIA除对核心AI晶片GPU更细致化定位,也积极主推HGX及MGX等方案,这并不是服务器产业链首见作法,但NVIDIA有机会稳固领先利基。NVIDIA藉高度整合GPU加上CUDA建立完整A I生态系,处于绝对领先位置,故对既有服务器供应链有较强议价能力,要求ODM如英业达、广达、工业富联、纬创、纬颖等,或品牌业者Dell、Supermicro、技嘉等,依NVIDIA HGX或MGX参考设计,且需经NVIDIA该AI服务器参考架构的软硬件认证。NVIDIA可整合兜售Arm CPU Grace及NPU或AI Cloud Foundation等软硬件解决方案。

值得注意的是,对ODM或OEM而言,预期NVIDIA今明两年云端服务业者AI服务器主力市场将大有斩获,有利拉抬整体AI服务器出货量及营收成长,但随着NVIDIA策略性导入HGX或MGX等标准化AI服务器架构,也使ODM等业者将因AI服务器核心产品架构较趋同质化使彼此争取CSPs等订单竞争态势更白热化。观察大型CSPs如Google、AWS有扩大导入自研ASIC AI加速晶片趋势,亦可能侵蚀部分NVIDIA GPU市场,为NVIDIA持续推动不同定位GPU产品及整体方案,将AI业务积极拓展至Tier 2资料中心如CoreWeave等及边缘企业客户的主因之一。

(首图来源:NVIDIA)

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。