NVIDIA 携手英特尔新 Xeon 处理器,抢攻高能效 AI 加速运算

NVIDIA 携手英特尔新 Xeon 处理器,抢攻高能效 AI 加速运算

NVIDIA 表示,随着处理器大厂英特尔 (Intel) 于 11 日宣布推出第四代 Xeon 可扩充处理器之后,NVIDIA 及合作伙伴开始为高能效 AI 打造新一代加速运算系统。这些系统搭载 NVIDIA H100 Tensor Core GPU,提供较上一代产品更出色的运行效能、更佳扩充性及更高执行效率,每瓦有更亮眼运算表现及解决问题的能力。NVIDIA DGX H100 系统及由 NVIDIA 全球合作伙伴推出的 60 余款搭载 H100 GPU 的服务器产品,都将搭载英特尔新第四代 Xeon 可扩充处理器。

NVIDIA 指出,在人类推动各项改写时代的颠覆性创新项目中,人工智慧 (AI) 是当中的核心以前所未有的速度开发新冠病毒 (COVID) 疫苗及诊断癌症,再到支援自动驾驶车和了解气候变迁。因此,当当前几乎各行各业都能受惠于采用 AI,但随着神经网络日渐变得复杂,AI 技术也需要极为庞大密集的资源。为避免因运行这类运算基础设施,而对发电造成需索无度的情况,必须尽量提高底层基础技术的运行效率。所以,在 NVIDIA GPU 和 NVIDIA AI 平台的支援下,加速运算的效率提高,使资料中心能够持续推动取得更新一代的突破性成果。

即将推出并搭载 NVIDIA 及英特尔产品的系统,将协助企业运行各项作业负载,其效率比仅搭载 CPU 的传统资料中心服务器平均高 25 倍。如此优异的每瓦效能代表完成工作所需的电力更少,这有助于确保让资料中心尽量高效运用电力来完成最重要的工作。与前一代加速系统相比,新一代的 NVIDIA 加速服务器将训练速度和推论的能源使用效率提高 3.5 倍,这么一来便能真正降低成本,AI 资料中心总持有成本降低 3 倍以上。

NVIDIA 携手英特尔新 Xeon 处理器,抢攻高能效 AI 加速运算 AI与大数据 图2张

第四代 Xeon 可扩充处理器的特色之一便是支援 PCIe Gen 5 规格,可以将 CPU 到 NVIDIA GPU 及网络的资料传输速率提高一倍。新增的 PCIe 通道让每台服务器内可以部署更高密度的 GPU 和高速网络。更高速的记忆体频宽也提高处理 AI 等资料密集型作业负载的表现,而每个连接高达每秒 400 GB (Gbps) 的网络速度,则是让服务器与储存装置之间能更快传输资料。

NVIDIA DGX H100 是全球首款专用 AI 基础设施第四代产品,在加速资料中心作业系统 NVIDIA Base Command 软件支援下,成为完全最佳化平台。每个 DGX H100 系统搭载八个 NVIDIA H100 GPU、十张 NVIDIA ConnectX-7 乙太网络介面卡及两个第四代 Intel Xeon 可扩充处理器,可提供打造大型生成式 AI 模型、大型语言模型、推荐系统等所需的效能。

此架构加上 NVIDIA 网络技术,能够大规模提升运算效率,在训练 AI 及处理高效能运算(HPC) 作业负载方面,其效能较前一代产品高 9 倍,比未加速的 X86 双插槽服务器高出 20 至 40 倍。要是过去在单纯 X86 架构服务器丛集训练一个语言模型要 40 天,搭载 Intel Xeon CPU 及 ConnectX-7 网络技术的 NVIDIA DGX H100 训练同个语言模型,只要 1~2 天便可完成。NVIDIA DGX H100 系统是适用企业的一站式 NVIDIA DGX SuperPOD 的构成单元,其提供高达 1 exaflop 的 AI 运算效能,显着提升大规模部署企业 AI 的效率。

处理 AI 资料中心的作业负载,NVIDIA H100 GPU 让企业更高效打造及部署应用程式。华硕 (ASUS)、源讯科技 (Atos)、思科 (Cisco)、戴尔科技 (Dell Technologies)、富士通 (Fujitsu)、技嘉 (GIGABYTE)、慧与科技 (Hewlett Packard Enterprise)、联想 (Lenovo)、云达科技 (QCT) 及美超微 (Supermicro) 等 NVIDIA 合作伙伴,即将推出搭载 H100 GPU 和第四代 Intel Xeon 可扩充 CPU 的多款系统组合,将为全球企业带来新一代的执行效能和能源使用效率。

(首图来源:NVIDIA)

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。