大型云端业者积极建置 AI 服务器,加速推升 AI 晶片与 HBM 需求,预估 2024 年先进封装产能将提升三到四成
▼
根据 TrendForce 研究指出,2023 年由 ChatBOT 等生成式 AI 应用带动 AI 服务器成长热潮,又以大型云端业者最积极投入,包含 Microsoft、Google、AWS 或其他中系业者如 Baidu、ByteDance 等陆续采购高阶 AI 服务器,以持续训练及优化其 AI 分析模型。高阶 AI 服务器需采用的高阶 AI 晶片,将推升 2023-2024 年高频宽记忆体(HBM)的需求,并驱动先进封装产能 2024 年将成长三到四成。
TrendForce指出,为提升整体AI服务器的系统运算效能,以及记忆体传输频宽等,NVIDIA、AMD、Intel等高阶AI晶片中大多选择搭载HBM。目前NVIDIA的A100及H100,各搭载达80GB的HBM2e及HBM3,在其最新整合CPU及GPU的Grace Hopper晶片中,单颗晶片HBM搭载容量再提升20%,达96GB。另外,AMD的MI300也搭配HBM3,其中,MI300A容量与前一代相同为128GB,更高阶MI300X则达192GB,提升了50%。同时预期Google将于2023年下半年积极扩大与Broadcom合作开发AISC AI加速晶片TPU亦采搭载HBM记忆体,以扩建AI基础设施。
TrendForce预估,2023年市场上主要搭载HBM的AI加速晶片(如NVIDIA的H100及A100、AMD的MI200及MI300及Google的TPU等),搭载HBM总容量将达2.9亿GB,成长率近六成,2024年将持续成长三成以上。
此外,AI及HPC等晶片对先进封装技术的需求日益提升,其中,以TSMC的CoWoS为目前AI 服务器晶片主力采用者。CoWoS封装技术主要分为CoW和oS两段,其中,CoW主要整合各种Logic IC(如CPU、GPU、AISC等)及HBM记忆体等,另外,oS部分则将上述CoW以凸块(Solder Bump)等接合,封装在基板上,最后再整合到PCBA,成为服务器主机板的主要运算单元,与其他零组件如网络、储存、电源供应单元(PSU)及其他I/O等组成完整的AI服务器系统。
TrendForce观察,估计在高阶AI晶片及HBM强烈需求下,TSMC于2023年底CoWoS月产能有望达12K,其中,NVIDIA在A100及H100等相关AI Server需求带动下,对CoWoS产能较年初需求量,估提升近五成,加上AMD、Google等高阶AI晶片需求成长下,将使下半年CoWoS产能较为紧迫,而此强劲需求将延续至2024年,预估若在相关设备齐备下,先进封装产能将再成长三到四成。
TrendForce指出,值得注意的是,在AI较急促需求下,无论是HBM或CoWoS生产过程中,得后续观察周边配套措施,例如直通硅晶穿孔封装技术(TSV)、中介层电路板(Interposer)以及相关设备(如湿制程设备)等是否能到位,如前置时间(Lead Time)等考量。而在AI强劲需求持续下,估NVIDIA针对CoWoS相关制程,亦不排除将评估其他类似先进封装外援,例如Amkor或Samsung等,以因应可能供不应求的情形。
注:本文高阶AI Server指搭载高阶AI晶片的Sever设备, 针对如大型CSPs或HPC等AI模型训练应用, 高阶AI晶片包含如NVIDIA的A100或H100, 或AMD的MI200、MI300,或Intel的Max GPU等。Samsung主力先进封装技术为Cube系列,如I- Cube、H-Cube、X-Cube等; Amkor先进封装技术涵盖晶圆级封装(WLP)、覆晶封装、 系统级封装等。
(首图来源:shutterstock)
▼
特别声明 本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。