老黄要小心!直击 AMD 全新 MI 300X 人工智慧晶片发表会
▼
近期掀起的人工智慧 (AI) 旋风,14 日再加一笔!处理器大厂 AMD 在美国旧金山“资料中心与人工智慧技术发表会”释出一系列消息,展现如何推展 AI 平台策略,提供客户涵盖云端、边缘、终端硬件产品,与业界深度软件合作,发展可扩充与全方位 AI 解决方案。最受关注的就是 AMD Instinct MI 300 系列加速器产品线最新细节,瞄准竞争对手辉达 (NVIDIA) 而来。
AMD 董事长暨执行长苏姿丰表示,AMD Instinct MI 300 系列加速器产品线的最新细节,Instinct MI 300X 加速器为全球最先进生成式 AI 加速器。MI 300X 采用新 AMD CDNA 3 加速器架构,支援高达 192GB HBM3 记忆体,提供大型语言模型推导与生成式 AI 工作负载运算力与记忆体效率。整个晶片总计封装 1,530 亿个电晶体,并 12 个 5 奈米制程小晶片。
凭藉 Instinct MI 300X 的大容量记忆体,客户可处理 Falcon-40B 等大型语言模型,仅需使用一个 MI300X GPU 加速器,就能处理 400 亿个参数的模型,苏姿丰现场要求执行 Hugging Face AI 模型的 MI 300X 写出一首有关旧金山的诗,展现单个 MI 300X 可运行高达 800 亿个参数模型的强大性能。
相较竞争对手,MI 300X 的 HBM 暂存记忆体是 NVIDIA H100 的 2.4 倍,HBM 频宽是 H100 的 1.6 倍,AMD 可执行比 NVIDIA H100 更大的模型。此外,AMD 推出 AMD Infinity 架构平台,将 8 个 MI 300X 加速器整合至业界标准设计,打造极致的生成式 AI 推论与训练环境。MI 300X 第三季开始向各大客户送样。同时发表 AMD Instinct MI 300A,为针对 HPC 与 AI 工作负载开发的全球首款 APU 加速器,已开始送样。
(首图来源:AI资源网摄)
▼
特别声明 本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。