生成式 AI 动力核心,NVIDIA 宣布 DGX H100 系统开始出货
▼
生成式 AI 热潮方兴未艾,核心动能的资料中心 GPU 更令人关心。GPU 大厂辉达 (NVIDIA) 运算副总裁 Manuvir Das 参加 1 日 MIT Technology Review 举行的 Future Compute 活动,宣布 DGX H100 系统开始出货,可帮助从东京到斯德哥尔摩客户,用 NVIDIA 最新 AI 超级电脑提升制造、医疗照护、机器人等生成式 AI 应用需求。
辉达表示,日本、厄瓜多和瑞典客户都将 NVIDIA DGX H100 系统如 AI 工厂产生情资,创建提供金融、医疗、法律、IT 和电信产业等基于 AI 洞见的服务,并致力协助产业转型。案例之一为预测工厂设备老化程度,以提升效率。
Green Physics AI 系统可将物体碳足迹、年龄和能源消耗等资讯加入号称制造业最大资料库的 SORDI.ai,让制造业者开发强大 AI 模型,并创建最佳化工厂和仓库效率的数位孪生。使用 Green Physics AI,可为产品和零组件最佳化能源利用和减少 CO2 排放。
即使不是世界一流研究机构或 500 大企业,也可使用 DGX H100。新创启用第一批生成式AI系统,驾驭生成式 AI 浪潮。伦敦和纽约的 Scissero 使用 GPT 驱动聊天机器人提高法律流程效率,Scissero GPT 可起草法律文件,产生报告并做研究。德国 DeepL 使用多个 DGX H100 系统扩展提供客户几十种语言翻译服务,包括日本最大出版社 Nikkei。DeepL 最近推出 DeepL Write AI 写作助理。
许多 DGX H100 系统也能促进医疗保健并改善疗效。东京 DGX H100s 为 Tokyo-1 超级电脑的一部分,模拟加速药物开发。Xeureka 是日本最大企业之一三井物产株式会社 2021 年 11 月成立的新创,可管理此系统。德国、以色列和美国医院和学术医疗机构都为 DGX H100 系统首批用户。
DGX H100 系统每个 H100 Tensor Core GPU 性能平均比以前 GPU 高约 6 倍,搭载 8 个 GPU,每个 GPU 都有一个 Transformer Engine,加速生成式 AI 模型。8 个 H100 GPU 透过 NVIDIA NVLink 连接,形成巨大 GPU,也可扩展 DGXH100 系统,使用 400 Gbps 超低延迟 NVIDIA Quantum InfiniBand 将数百个 DGX H100 节点连线一台 AI 超级电脑,速度是之前网络的两倍。
DGX H100 系统在 NVIDIA Base Command 上运行,是加速运算、储存和网络基础设施并最佳化AI负载的套件。DGX H100 系统还包括 NVIDIA AI Enterprise 软件,可加速资料科学流程,并简化生成式 AI、电脑视觉等开发部署。DGX 平台具高效能和高效率。与 DGX A100 相比,DGX H100 每 petaflop 运算力千瓦数能源效率提高 2 倍。
(首图来源:NVIDIA)
▼
特别声明 本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。