减轻依赖 NVIDIA GPU,Meta 资料中心部署 AI 新晶片“Artemis”

减轻依赖 NVIDIA GPU,Meta 资料中心部署 AI 新晶片“Artemis”

《路透社》取得 Meta 内部文件指出,Meta 今年将在资料中心部署客制化设计的 AI 晶片,新的系统单晶片代号“Artemis”(阿提米丝),支援 Meta 在自家平台和装置推动 AI 产品,同时也能减少对 NVIDIA GPU 的依赖并控制成本。

Facebook、Instagram、WhatsApp 等平台以及 Ray-Ban Meta 智慧眼镜等装置中的 AI 工作负载越来越繁重,Artemis 就是为执行 AI 推理工作所设计。在资料中心部署 Artemis 不仅可以释出用于 AI 训练的 NVIDIA H100 GPU,还有助于改善资料中心功耗情况,进而降低 AI 工作负载带来的高昂成本。

Artemis 成为 Meta 第二款 AI 加速处理器,也是第一款进行商用部署的处理器。

“我们认为内部开发的加速器和商用 GPU 具有高度互补性,可为 Meta 特定工作负载提供结合性能和效率的最佳组合”,一名 Meta 发言人向路透社表示,同时确认公司部署自研晶片的计划。

Meta 野心不仅止 Artemis,《路透社》报道该公司还在开发一款更复杂的处理器,可以执行 AI 工作负载,可望媲美 NVIDIA H100 GPU

半导体研究和顾问公司 SemiAnalysis 创办人 Dylan Patel 表示,Meta 使用客制化晶片可望省下大笔支出,每年可能减少数亿美元能耗支出,并减少数十亿美元第三方晶片采购成本。实际上,其他大型科技公司如 Google、亚马逊、微软,都在开发和部署自有 AI 加速器,以降低硬件成本和功耗支出。

Meta 持续扩张运算资源,投资数十亿美元收集专用处理器并针对 AI 工作负载建立资料中心,以满足生成式 AI 运算需求。

Meta 开发自有晶片阵容虽能减少对 NVIDIA GPU 的依赖,然而 Meta 并没有计划在资料中心完全弃用 NVIDIA GPU。Meta 执行长祖克柏稍早表示,到 2024 年底,Meta 的运算基础设施将需要 35 万个 NVIDIA H100 GPU,如果加上 NVIDIA A100 以及其他 AI 晶片,Meta AI 晶片库存量将达 60 万个。

  • Meta to deploy in-house custom chips this year to power AI drive

(首图来源:影片截图)

延伸阅读:

  • Llama 3 模型开发中,祖克柏:Meta AI 蓝图需要更多 NVIDIA GPU
  • 扩增云端、AI 运算量能,Meta、亚马逊在美增建资料中心
  • Meta 首度公开自研 AI 晶片,估 2025 年正式问世

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。