Llama 3 模型开发中,祖克柏:Meta AI 蓝图需要更多 NVIDIA GPU
▼
祖克柏 18 日透过 Reels 短影音分享 Meta AI 蓝图,计划建构大规模的运算基础设施,到 2024 年底,运算基础设施将包含 35 万个 NVIDIA H100 GPU。
如果加上 NVIDIA A100 以及其他 AI 晶片,到 2024 年底 Meta GPU 库存量将达将近 60 万个,值得一提的是,AMD 去年 12 月发表 Instinct MI300X AI 晶片时,就曾透露包括 Meta、OpenAI、微软等公司将采用。Meta 也有自研 AI 晶片计划,但最快 2025 年才会投入运算行列。
祖克柏未透露 Meta 已经采购多少 GPU,由于 NVIDIA H100 是 2022 年底才上市,且供应量有限,外部研究推测 Meta 的 H100 到货量在 2023 年达到 15 万个,这个数字也与微软到货量持平。券商 Raymond James 的分析师估算,H100 价格落在 25,000 美元至 30,000 美元之间,在 eBay 上拍卖价格甚至超过 40,000 美元。如果 Meta 以价格范围底标进行采购,也得付出将近 90 亿美元。
祖克柏还透露,Meta 正在训练大型语言模型 Llama 3,由基础 AI 研究团队(Fundamental AI Research,FAIR)和 GenAI 研究团队紧密合作开发。Llama 3 将具有产生程式码的能力,与 Google Gemini 一样,另一重点将是更先进的推理和规划能力。
祖克柏上传 Reels 后不久,Meta 首席 AI 科学家杨立昆(Yann LeCun)也谈道“为了加速进展,FAIR 现在是 AI 产品部门 GenAI 的姐妹组织。”
▲ 祖克柏分享Meta AI 蓝图。
为了进行 AGI(Artificial General Intelligence,通用人工智慧)研究,Meta 急需 AI 晶片建立运算基础,祖克柏强调这是 Meta 长期愿景。AGI 是一种媲美人类智慧水准的未来 AI 形式,包括 OpenAI、Google DeepMind 等也大力投入研发。
杨立昆上个月在一场座谈活动分享 GPU 对 AI 发展重要性,“你认为 AGI 已经流行时,就必须采购更多 GPU”。同场活动提及 NVIDIA 和执行长黄仁勋(Jensen Huang),由于 AI 热潮下 NVIDIA 获益匪浅,“这是一场 AI 战争,而 Jensen 正在提供武器”,杨立昆谈道。
从 Meta 第三季财报显示,2024 资本支出将在 940 亿美元至 990 亿美元之间,一部分将用来扩张运算基础设施。“就投资重点而言,AI 成为我们 2024 年最大投资领域,无论是在工程还是运算资源上”,祖克柏透过财报电话会议表示。
祖克柏公开了他擘划已久的 AI 蓝图,如今 AI 人才和运算资源的竞争从未如此激烈,各家科技公司都在争夺少数的研究人员和工程师,更愿意砸钱添购 AI 晶片,只希望在全球 AI 竞赛不落人后。
- Mark Zuckerberg’s new goal is creating artificial general intelligence
- Zuckerberg’s AGI remarks follow trend of downplaying AI dangers
- Mark Zuckerberg indicates Meta is spending billions of dollars on Nvidia AI chips
(首图来源:Meta)
▼
特别声明 本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。