AI 服务器需求带动, HBM 供应龙头 SK 海力士今年市占率可逾五成

AI 服务器需求带动, HBM 供应龙头 SK 海力士今年市占率可逾五成

AI 服务器出货动能强劲带动 HBM(high bandwidth memory)需求提升,TrendForce 研究显示,2022 年三大原厂 HBM 市占率分别为 SK 海力士(SK Hynix)50%、三星(Samsung)约 40%、美光(Micron)约 10%。

高阶深度学习AI GPU规格也刺激HBM产品更新,下半年随NVIDIA H100与AMD MI300搭载,三大原厂规划对应规格HBM3量产,今年或有更多客户导入HBM3,SK海力士为唯一量产新世代HBM3产品的供应商,整体HBM市占率可望提升至53%,三星、 美光则陆续年底至明年初量产,HBM市占率分别为38%及9%。

预估2023年AI服务器出货量年增15.4%

NVIDIA定义的DL / ML型AI服务器平均每台均搭载4或8张高阶显卡,搭配两颗主流型号x86服务器CPU,主要拉货力道来自美系云端业者Google、AWS、Meta与微软。TrendForce统计,2022年高阶搭载GPGPU的服务器出货量年增约9%,近80%出货量集中美中系统八大云端业者。展望2023年,微软、Meta、百度与字节跳动相继推出基于生成式AI衍生产品服务而积极加单,今年AI服务器出货量年增率可望达15.4%,2023~2027年AI服务器出货量年复合成长率约12.2%。

AI 服务器需求带动, HBM 供应龙头 SK 海力士今年市占率可逾五成 AI与大数据 图2张

AI服务器刺激服务器DRAM、SSD与HBM需求同步上升

TrendForce调查,AI服务器可望带动记忆体需求成长,现阶段而言,服务器DRAM普遍规格约500~600GB,AI服务器单条模组多采64~128GB,平均容量可达1.2~1.7TB。以企业级SSD来说,AI服务器追求速度更高,要求优先往DRAM或HBM满足,SSD容量提升呈非必要扩大容量态势,但传输介面会为了高速运算需求优先采用PCIe 5.0。相较一般服务器,AI服务器多增用GPGPU,因此以NVIDIA A100 80GB配备4或8张采计,HBM用量约320~640GB。未来AI模型逐渐复杂化趋势下,刺激更多记忆体用量,并同步带动服务器DRAM、SSD及HBM需求成长。

AI 服务器需求带动, HBM 供应龙头 SK 海力士今年市占率可逾五成 AI与大数据 图3张

(首图来源:SK 海力士)

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。