美超微发表新解决方案,加速 AI 训练和推论效能
▼
美超微(Supermicro)推出适用于 AI 和机器学习资料存取的新解决方案,透过将 GPU 资料传输管道完全利用,大幅缩短 AI 价值实现时间,帮助组织更快速训练模型,迅速将处理后的资料运用到 AI 推论。
美超微指出,在 AI 训练方面,这款解决方案可收集、转换大量 PB 级原始资料,并载入到企业 AI 工作流程管道。经证实,可在生产制造环境中为人工智慧营运(AIOps)和机器学习营运(MLOps)提供 PB 规模级资料量。
Supermicro 总裁暨执行长梁见后表示,透过由每机柜 20 PB 高效能快闪储存容量所驱动,并搭载四个专为应用最佳化的 H100 8-GPU 气冷服务器或搭载八个 H100 8-GPU 的液冷服务器,客户能以机柜规模加速AI和ML应用运行。
此外,该解决方案为每个储存丛集提供 270 GB/s 的读取吞吐量和 390 万 IOPS做为最低部署,并轻松扩大至数百PB的规模。借由使用具有 PCIe 5.0 与 E3.S 储存装置,以及 WEKA Data Platform 软件的最新 Supermicro 系统,这项通过场域测试的机柜级解决方案,大幅提升使用者的 AI 应用效能。
梁见后指出,透过全新的储存解决方案,客户将能完全发挥最先进 GPU 服务器机柜级解决方案的使用潜能,进而降低总拥有成本(TCO)并提高 AI 效能。
(首图来源:AI资源网)
延伸阅读:
- 美国官方补贴速度慢,英特尔延后俄亥俄州建厂至 2026 年底
- 创意估今年营收个位数成长,Q1 季减个位数
▼
特别声明 本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。