申请 ChatGPT 和新 Bing 帐号为什么要等这么久?

申请 ChatGPT 和新 Bing 帐号为什么要等这么久?

AIGC 最近让世界疯狂,每天醒来都可能是“新世界”,但从另一角度看,无论 AIGC 如何智慧颠覆,我们仍身处“旧世界”,或说“候补”世界。

不只新 Bing,Github Copilot X、ChatGPT 外挂程式、Midjourney V5 及 Adobe Firefly,甚至百度文心一言,体验前都得加入等待清单排队等试用。这过程就像配给制,AIGC 服务越多,GPT-4、Midjourney V5 升级的等待时间又要延长。如今仍有相当多人还在新 Bing 等待清单上,更别说其他更新生成式 AI

或许是对等待清单这潜规则的无声反抗,有人做了“一键排队”网站。不过讽刺的是,“一键加入”功能还没做好,需先加入各家等待清单;且网站功能变数名称后缀是 .wtf,怨气拉到满。

候补名单背后是为了服务更稳定

当把这个问题丢给 Bing,Bing 从 OpenAI 官网三个页面找到四个原因。

  1. 限制用户量,确保服务品质和稳定性。
  2. 收集用户回馈,改善服务和体验。
  3. 增加使用者期待和参与感,提高知名度与口碑。
  4. 筛选符合目标使用者,提高服务转化率和留存率。

这更像 OpenAI、微软、Google 等大公司对看似无限等待的官方说法。相对来说,最先走向大众的 ChatGPT,模型升级后及大幅降价,服务也有不少波动,如问答纪录消失,当机,问答清单混乱等稳定度问题。

基于 OpenAI 的新 Bing 也有过激烈言辞,到现在微软还有限制新 Bing 对话次数与长度。可说限制使用 ChatGPT 和新 Bing 人数,能提供更稳定和快速服务。但这些功能和服务已消耗相当资源,几乎占用微软 Azure 一半算力。

AIGC 界尚未出现超级 App,还在快速反复运算,甚至可说是 Beta 测试版,还用传统对话框与 AI 互动,其实与 2023 年人手一(手)机不太搭配。AIGC 现在只能算功能,即将推出的 Copilot、Firefly 才更像产品,但仍躺在每家等待清单里。某方面来说,微软、Google、Adobe 还在“打磨”产品,想对所有人敞开大门,或说 AI 成为每个人的 Copilot,还需要突破“瓶颈”。

申请 ChatGPT 和新 Bing 帐号为什么要等这么久? AI与大数据 图2张

▲ Office 365 的 Copilot 功能。

蓬勃发展的 AIGC,或许开始碰到瓶颈了

“瓶颈”并非外在,生成式 AI 的伦理、法律或回应准确度,AI 背后提供算力的硬件,以及各种训练云端运算。微软持续投资 OpenAI,先后投资几十亿美元,也逐步出现基于 GPT-4 的新 Bing,和还在等待清单上的新 Office 365。为了保证新 Bing 及有 Copilot 功能的新 Office 365 稳定快速回应,微软也预留 Azure 一半算力和容量。

这导致微软 Azure 算力资源紧张。The Information 采访员工,对有限硬件资源,微软正在实施硬件等待清单制度。微软其他开发机器学习模型的团队和部门,想调用 Azure AI,需逐级申请报备,由一位副总裁定夺。

就如我们排队等着体验新生成式 AI,除了新 Bing、新 Office 365 和 OpenAI 服务,微软其他部门也在排队等着用 Azure 算力。只是随着微软 All in OpenAI 策略,Azure 算力和容量渐渐紧张起来。

除了公司调用,Azure 也有各种产品和服务,如 AI、计算、容器、混合云、物联网等。Azure 目前在全球 60 多地区提供服务,对外服务器产品和云端收入占微软总营收 36%。但与团队类似,Azure 客户也受算力有限影响,尤其想调用 Azure OpenAI 一样得加入等待清单。

大概从 2022 年底,微软就打算增加更多硬件(GPU 或 TPU)以扩充算力。微软与辉达达成协定,增加数万个 H100 GPU,为 OpenAI 提供更高 AI 训练和推理效率。不过微软与辉达并未透露 Azure H100 部署情况,微软也只有少部分团队拥有 H100 调用许可权(大概是新 Bing 和 Office 365 团队),其他部门也要排队。

一块 H100 售价约 24 万元,微软 Azure 扩充就需投资数亿资金。不只微软,Google、甲骨文等云端服务商也大力投资 GPU 等硬件准备扩充,AIGC 彻底爆发前做好算力准备。

申请 ChatGPT 和新 Bing 帐号为什么要等这么久? AI与大数据 图3张

▲ 辉达 CEO 黄仁勋与 OpenAI 联合创办人兼首席科学家 Ilya Sutskever 对谈。

但从 GTC 2022 发表到现在,辉达没有公布 H100 产量和销售状况,微软 Azure 扩充计划是否有效也不得而知。GTC 2023 辉达并没有说更多 H100、A100 硬件进展,只强调辉达云端计算硬件的优势。首席技术长也强调“加密货币对社会没有贡献,AI 才有”,侧面强调 AIGC 领域将是辉达之后 30 多年专注的领域。

随着 AIGC 持续运算,2022 年 10 月辉达股价也跟着增加,一扫加密货币衰退导致业务下滑颓势。目前辉达市值又达到新高点,几乎等于英特尔、AMD、ARM 三家市值总和。

但高市值似乎没有改善硬件供应状况,反而随着 Google、微软等大企业不计成本资源投资云端硬件,辉达很可能再次出现显卡荒。不只硬件,高性能 GPU 组成的计算矩阵也需高功率,单张 SXM 介面 H100 功率就达 700W。AI 模型训练和大数据计算中心耗电量更十分惊人。

2021 年加州大学 David Patterson、Joseph Gonzalez 研究显示,训练 GPT-3 大概需耗费 1.287 千兆瓦时电力,相当于 120 个美地区庭一年电量。论文还发现训练 GPT-3 会产生 502 吨碳排放,等于 110 辆汽车一年排放量。他们虽强调这只是一个模型的训练成本,但进入市场后会消耗更多资源,可能比训练成本更高。

OpenAI GPT-3 有 1,750 亿个参数或变数,GPT-4 参数更预估 1,750 亿到 2,800 亿。对于能耗,云端计算需求只增不减。OpenAI CEO Sam Altman 接受 The Verge 采访时表示,OpenAI 正在寻找更有效方法提升模型性能和安全性。换句话说,OpenAI 也试图用高效演算法寻找节省训练模型的硬件资源与电力。

等待清单机制表面看可确保 AIGC 使用体验,以及服务回应速度。但深层看,更是资源角力,是 GPU、TPU 为核心的云端算力和容量互相角力,也是高投入高能耗的竞争。目前 AIGC 仍处于“盲盒”阶段,资源需求和使用也不明朗。

不过站在各种 AI 服务的等待清单队伍里,确实很像科幻电影人们排队进入 AI 控制的工厂,提供运作资源。等待清单就是虚拟世界的候补,也可能是将来现实世界的 AI 服务伫列。

(本文由 爱范儿 授权转载;首图来源:shutterstock)

延伸阅读:

  • Nvidia 呛加密货币“对社会毫无价值”,但早就靠挖矿商大发财
  • 串连数千个 Nvidia GPU,微软打造 ChatGPT 的超级电脑
  • 云端厂 AI 战开打,ChatGPT 未来迈向商用,GPU 需求上看 3 万颗
  • 花了 100 多亿美元建 AI 模型,微软又豪掷数亿美元投资专用硬件

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。