H100 GPU 驱动运算,AWS 最新 P5 执行个体供云端客户采用

H100 GPU 驱动运算,AWS 最新 P5 执行个体供云端客户采用

AWS(Amazon Web Services,亚马逊云端运算服务)日前在纽约峰会(AWS Summit New York 2023)宣布 Amazon Elastic Compute Cloud(EC2)P5 执行个体正式提供客户采用,这是下一代的 GPU 执行个体,由最新 NVIDIA H100 Tensor Core GPU 驱动运作,满足云端客户在执行 AI、机器学习、高效能运算对高效能和高扩展性的工作需求。

今年 3 月 AWS 与 NVIDIA 宣布一项多方合作,打造全球最具可扩展性且按需求付费的 AI 基础设施,以便训练日益复杂的大型语言模型、开发生成式 AI 的应用程式。当时 AWS 便预告由 H100 GPU 驱动的 Amazon EC2 P5 执行个体,为打造和训练更大规模的机器学习模型提供高达 20 exaFLOPS 的算力,如今正式提供给客户。

Amazon EC2 P5 执行个体提供 8 个 H100 GPU,具有 640GB 高频宽 GPU 记忆体,同时提供第三代 AMD EPYC 处理器、2TB 系统记忆体以及 30TB 本地 NVMe 储存。此外,还提供 3200Gbps 的聚合网络频宽并支援 GPUDirect RDMA,能够绕过 CPU 进行节点间通讯,达到更低延迟和高效横向扩展效能。

适合训练和执行越来越复杂的大型语言模型和电脑视觉模型的 Amazon EC2 P5 执行个体,可满足密集运算的生成式 AI 应用需求,包括问答、产生程式码、产生图片和影片、语音辨识等。对于需要高效能运算的客户采用 Amazon EC2 P5 执行个体,能够更大规模地部署在药物开发、地震分析、天气预报、金融建模等高需求的应用程式。

与上一代以 GPU 为基础的执行个体相比,Amazon EC2 P5 执行个体可将训练时间缩减 6 倍,换句话说可从几天缩短到几小时的时间,帮助客户节省多达 40% 的训练成本。

(首图来源:NVIDIA)

延伸阅读:

  • 只回答问题的生成式 AI 不够看,会自动完成任务的 AI 代理成新焦点
  • AWS 推七项生成式 AI 创新功能,降低使用门槛
  • 不愿落后微软、Google,亚马逊加入生成式 AI 竞赛

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。