AWS 自研晶片 Trainium2、Graviton4 亮相,深化辉达合作引进 H200、GH200
▼
自从 ChatGPT 掀起 AI 热潮,市场对 NVIDIA GPU 需求激增,导致晶片短缺,与此同时,科技公司纷纷将生成式 AI 技术导入产品,更需要考量算力和成本。亚马逊持续采取双管齐下的方式,不仅积极开发自研晶片,也让客户选择使用 NVIDIA 最新产品。
AWS(Amazon Web Services)年度盛会──AWS re:Invent 2023 上,亚马逊发表全新 Trainium2 AI 晶片和 Graviton4 处理器,并与 NVIDIA 扩大策略合作、引进更多产品。
Trainium2 晶片专为训练 AI 模型所建构,将支援 EC Trn2 执行个体。相较 2020 年 12 月推出的第一代 Trainium 晶片,第二代的效能提高 4 倍、能源效率提高 2 倍,包括 Databricks、Anthropic 计划使用这款晶片投入 AI 模型开发。
以 Arm 架构为基础的 Graviton4 处理器,比起现有 Graviton3 处理器运算效能提升 30%、核心数量增加 50%、记忆体频宽增加 75%,不仅能耗可低于英特尔或 AMD 的资料中心处理器,更能保护需要高度加密需求的 AI 训练资料和工作负载。亚马逊表示,AWS 已有超过 5 万家客户正在使用 Graviton 系列处理器,Graviton4 处理器将支援 EC2 R8g 执行个体,目前提供预览版,计划在未来几个月内全面供应。
▲ Graviton4 和 Trainium2 原型晶片。(Source:亚马逊)
在与 NVIDIA 合作方面,AWS 推出 3 款 Amazon Elastic Compute Cloud(Amazon EC2)执行个体:P5e 执行个体配置 NVIDIA H200 GPU,瞄准大规模与先进生成式 AI 和 HPC 工作负载;G6、G6e 执行个体分别配置 NVIDIA L4 GPU、NVIDIA L40S GPU,其中 G6e 执行个体特别适合用来开发 3D 工作流程、数位分身以及其他使用 NVIDIA Omniverse 的应用,这些执行个体都能提供客户采用。
NVIDIA 更与 AWS 合作推动 Project Ceiba,联手设计全球最快、由 GPU 驱动的 AI 超级电脑,配备 NVIDIA GH200 NVL32 多节点平台与 Amazon EFA 互连技术的大规模系统由 AWS 代管,可为 NVIDIA 研发团队提供服务。这部开创先河的 AI 超级电脑配置 16,384 颗 NVIDIA GH200 超级晶片,能处理 65exaflops 速度等级的 AI 运算。
- Amazon unveils new chips for training and running AI models
- Amazon announces new AI chip as it deepens Nvidia relationship
(首图左起 AWS 执行长 Adam Selipsky、NVIDIA 执行长黄仁勋,首图来源:Amazon Web Services)
▼
特别声明 本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。