NVIDIA 推出 Magnum IO 套装软件,协助资料科学家及 AI 和高效能运算研究人员消除资料瓶颈
▼
NVIDIA(辉达)19 日宣布推出 NVIDIA Magnum IO 软件,可以协助资料科学家、 AI 与高效能运算研究人员在几分钟而非几小时内处理大量资料。
经过优化后的 Magnum IO 能够排除储存及输入 / 输出的瓶颈,在执行如财务分析、建立气候模型与其他高效能运算作业时,可针对多服务器与多 GPU 节点提供高达 20 倍的资料处理效能。
NVIDIA 与网络及储存领域的顶尖业者密切合作,包括 DataDirect Networks、Excelero、IBM、Mellanox 和 WekaIO,并肩开发出 Magnum IO。
NVIDIA 创办人暨执行长黄仁勋表示:“处理大量收集或模拟的资料,是 AI 这般由资料带动之科学研究领域的核心。随着资料的规模和出现速度呈现指数级增长,资料中心所面临的巨大挑战和成本考量就是资料处理。极致的运算需要有极致的输入 / 输出功能,而 Magnum IO 将巅覆运算领域的 NVIDIA GPU 加速技术用在输入 / 输出功能和储存装置上,做到了这一点。如今 AI 研究人员与资料科学家不用再等待资料,反而能专心在他们的研究工作上。”
Magnum IO 的核心是 GPUDirect,资料可以借此绕过 CPU,在 GPU、储存装置和网络设备提供的“开放高速公路”上进行传输。由点对点及远端直接记忆体存取(RDMA)组成的 GPUDirect,与众多传输互连及 API 皆相容,其中包括 NVIDIA NVLink、NCCL、OpenMPI 及 UCX。
其最新元素是 GPUDirect Storage,让研究人员在存取储存装置之际可以绕过 CPU,并且快速取得资料档案来进行模拟、分析或视觉化等作业。
NVIDIA Magnum IO 软件现已上市,而特定早鸟计划的客户现已可取得尚未上市的 GPUDirect Storage。NVIDIA 计划在 2020 年上半年让更多客户接触到 GPUDirect Storage。
▼
特别声明 本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。