受新品 AI 加速晶片带动,HBM3 与 HBM3e 将成为 2024 年市场主流
▼
TrendForce 调查显示,今年 HBM(High Bandwidth Memory)市场主流为 HBM2e,含 NVIDIA A100 / A800、AMD MI200 及多数 CSPs 自研加速晶片皆以此规格设计。为因应 AI 加速器晶片需求演进,各原厂再于 2024 年推出新产品 HBM3e,HBM3 与 HBM3e 将成明年市场主流。
若探究HBM各世代差异,主要以速度细分。除了市场已知HBM2e,进入HBM3世代时,产业出现较混乱名称。TrendForce特别表示,市场所称HBM3实际需分为两种速度讨论,一,5.6~6.4Gbps的HBM3;二,8Gbps的HBM3e,别名HBM3P、HBM3A、HBM3+、HBM3 Gen2皆属此类。
三大原厂HBM发展进度如下:韩厂SK海力士(SK Hynix)、三星(Samsung)先从HBM3开发,代表产品为NVIDIA H100 / H800及AMD MI300系列,预定2024年第一季送样HBM3e;美系厂美光(Micron)选择跳过HBM3,直接开发HBM3e。
HBM3e将由24Gb mono die堆叠,八层(8Hi)基础上,单颗HBM3e容量一口气提升至24GB,导入2025年NVIDIA GB100,故三大原厂预定2024年第一季送样HBM3e,以期下半年量产。
CSP陆续启动自研AI加速晶片计划,欲摆脱依赖NVIDIA与AMD
观察AI服务器(AI server)加速晶片,NVIDIA服务器GPU市占最高。然单张20,000~25,000美元H100 / H800,一台AI服务器建议配备八张,使总体拥有成本(Total Cost of Ownership,TCO)大幅提升。TrendForce观察,各云端业者(CSP)虽仍会向NVIDIA或超微(AMD)采购服务器GPU,但也同步自研AI加速晶片。
除了行之有年的Google TPU与AWS Trainium和Inferentia,Google与AWS也着手研发次世代自研AI加速晶片,采HBM3或HBM3e。TrendForce表示,其他北美及内地云端服务业者也有相关验证进行,将来AI加速晶片版图竞争会更激烈。
(首图来源:shutterstock)
▼
特别声明 本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。