AI 模型需耗用大量 GPU,推动载板长期需求

AI 模型需耗用大量 GPU,推动载板长期需求

生成式 AI 风起云涌,也带来各式 AI 应用落地,而 AI 服务器以及 GPU 服务器预估将成为 ABF 载板需求长期动能,因产品需求的 ABF 载板层数高、面积大,需要消耗更多 ABF 载板产能,相关厂商欣兴、南电以及景硕可望受惠,但短期来说,载板上半年遇逆风,盼第二季陆续落底。

据市调机构集邦科技表示,要处理1800亿参数的GPT-3.5大型模型,需要的GPU晶片数量高达2万颗,未来GPT大模型商业化所需的GPU晶片数量甚至会超过3万颗。

业内人士表示,以NVIDIA H100 或 A100晶片来说,皆采用高阶载板,载板面积估可达6565mm、层数约在10层以上,制作难度高,需消耗更多产能,若AI服务器趋势加速往上,有助ABF产业供需提早回到健康水准。

而以近期市况来说,载板厂商上半年仍是保守,客户仍在积极去化库存,主要除了PC/NB市场仍疲弱之外,大型数据中心对于服务器的需求量下修,北美四大云端服务的提供商仍在紧缩支出甚至扩大裁员,对于新服务器的建置采购也放缓,另外,对于新平台的导入也延后,造成上半年整体ABF需求不如预期。

法人即表示,以今年ABF载板是转为供过于求的状况,相对于过去两年选择载板首选以ABF占营收比重高者来说,今年则需要优先选择可以生产高阶ABF板(层数高、尺寸大)的厂商,因在市况动摇时,中低阶ABF载板也面临降价的压力,门槛较高的高阶板,相对价格也较有支撑。

(本文由 MoneyDJ新闻 授权转载;首图来源:pixabay)

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。