AI 需求持续看涨,2023 年全球 AI 服务器出货量年增近四成

AI 需求持续看涨,2023 年全球 AI 服务器出货量年增近四成

AI 服务器及 AI 晶片需求同步看涨,TrendForce 预估 2023 年 AI 服务器(含搭载GPU、FPGA、ASIC 等)出货量近 120 万台,年增 38.4%,占整体服务器出货量近 9%,至 2026 年占 15%,同步上修 2022~2026 年 AI 服务器出货量年复合成长率至 22%。AI 晶片 2023 年出货量成长 46%。

TrendForce表示,NVIDIA GPU为AI服务器市场搭载主流,市占率约60%~70%,其次为云端业者自研AISC晶片,市占率逾20%。观察NVIDIA市占率高的主因有三:一,不论美系或中系云端服务业者(CSP),除了采购NVIDIA A100与A800,下半年需求也陆续导入H100与H800,尤其新机种H100与H800平均销售单价约A100与A800的2~2.5倍,加上NVIDIA积极销售自家整机解决方案。

二,高阶GPU A100及H100高获利模式也是关键,旗下产品AI服务器市场已拥有主导权优势,TrendForce研究,H100本身价差也依买方采购规模,会产生近5千美元差距。

三,下半年ChatBOT及AI运算风潮将持续渗透各专业领域(云端/电商服务、智慧制造、金融保险、 智慧医疗及智慧驾驶辅助等)市场,同步带动每台搭配4~8张GPU的云端AI,以及每台搭载2~4张GPU的边缘AI服务器应用需求渐增,今年搭载A100及H100的AI服务器出货量年增率将逾五成 。

此外,从高阶GPU搭载HBM看,NVIDIA高阶GPU H100、A100主采HBM2e、HBM3。以今年H100 GPU来说,搭载HBM3技术规格,传输速度也较HBM2e快,提升整体AI服务器系统运算效能。随高阶GPU如NVIDIA A100、H100;AMD MI200、MI300,以及Google自研TPU等需求皆逐步提升,TrendForce预估2023年HBM需求量年增58%,2024年有望再成长约30%。

AI 需求持续看涨,2023 年全球 AI 服务器出货量年增近四成 AI与大数据 图2张

(首图来源:shutterstock)

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。