ChatGPT 难以复制的原因,除了耗显卡,还有水电费?

ChatGPT 难以复制的原因,除了耗显卡,还有水电费?

一觉醒来,世界又变了。ChatGPT 走入大众后,AIGC 业大爆发,尤其 3 月仿佛每天都是“历史性”的一天。

ChatGPT为代表的生成式AI看似超前,却以极“古典”的形式降世。它没有花哨图示,也没有完美UI设计,而是用最简单的对话框“震撼”世界。如此简单却成了网络和现实最红的话题,果然“好看的皮囊千篇一律,有趣的灵魂万中选一”。只是只能在网页和问答感受它,让我们忽略了不少问题。

看似毫无负担的“回答”,背后却是世界屈指可数的算力成就。随着ChatGPT成为常态,藏在ChatGPT背后的眉角也逐步显现。

烧钱费电,还喜欢喝水

生成式AI消耗显卡很类似“挖矿”。大语言模型(LLMs)训练参数越多,性能越好,2018年的LLM约1亿个参数,现在约要2千亿个参数。跑AI需要算力高强的GPU,辉达2020年推出A100高性能GPU,打包八张A100组成DGXA100服务器,运算服务器或说显卡组,最终放在云端运算中心,如微软Azure云服务。Google

▲ TPU v4组成的Google机器学习中心。(Source:Google)

不光训练大语言模型需要大量算力,每个用户问一次,ChatGPT回答一次,都要用到部分算力。流量就是金钱,OpenAI、微软应该都有刻骨铭心的感受。Similarweb数据,3月ChatGPT吸引全球16亿次拜访,是1月近三倍,即便微软有准备,装了一万多张A100给ChatGPT,但如此流量就算OpenAI也扛不住,当机、封帐和暂停Plus会员开通纷纷上场。

有人估算想完整吃下那时流量,微软还得再买几万张A100或H100显卡,Azure现在算力远远不够。但买更多显卡,除了烧钱也会有更多问题。八张A100组成的DGXA100服务器售价约19.9万美元,最高功率为6.5kW。以万张计算,光硬件微软就要花掉2.5亿美元,营运一个月就用掉585万度电。

除了显卡本身价格及维持工作的电力,还要有凉爽的环境,搭配蒸发冷却装置。原理简单,就是利用蒸发水散热,但运行需要耗费大量清水,且循环过程约1%~2%水会蒸发被风带走。虽然水量大致维持动态平衡,但冷却塔的小环境却有无形消耗。

结合AIGC需庞大算力的运算中心,科罗拉多大学与德州大学研究员估算训练过程消耗的水量。以GPT-3为例,训练时清洁淡水等于填满核反应堆冷却塔水量。果然AI最终还是会跟核电挂钩。再具体点就是约70万升水,且还算出一个用户与ChatGPT进行25~50次问答,大概等于给ChatGPT喝500ml水。蒸发冷却塔工作时,平均每消耗一度电,就让一加仑水(3.78L)消失。

不只微软,Google 2019年为三座资料中心耗费超过23亿加仑水。美国本土Google有14座资料中心,为搜寻和现在LaMDA和Bard提供算力,且训练LaMDA语言模型时比GPT-3还耗水。

AI不只吃显卡,要住恒温大房子,胃口还出奇的好,大口吃电,大口喝水。Google

▲ Google运算中心。(Source:Google)

无处不在的AI鸿沟

AIGC业简单准确回应的对话框,背后不只技术力,也代表雄厚的金钱力。Sasha Luccioni博士表示,大型语言模型,世界只有少数公司才有资源训练。以GPT-3为例,训练1,800亿参数,成本约460万美元,还不包括后续营运和更新维护等。这些有形的无形成本,当然很多公司无法承担。

AIGC浪潮下形成AI鸿沟,分成两种公司。一是钱多到够烧,训练最复杂的大语言模型的大型科技公司;另一种就是无法承担的非营利组织和小公司。

许多AIGC到底消耗多少电力资源的研究报告,多以GPT-3或“预估”等带过,就像训练GPT-3用了多少水的研究,OpenAI并没有披露GPT-3训练时长,研究员只能从微软Azure运算中心冷却塔数据估算。碳排放等其他数据,也多从2019年Bert训练模型估算。除了资金、GPU、资料中心、网络频宽等硬实力,Google、微软也把大语言模型训练、过程、时间、参数等都列为最高机密。

我们想使用了解,只能透过API或询问ChatGPT和Bard,无形中成为“AI鸿沟”。

AIGC发展迅速且能力无限扩大,许多地区组织都在考虑如何帮AIGC设立规范,免得它(产生自我意识,开始觉醒等等等)恣意妄为。但就如研究员,AIGC(如GPT-4)几乎没有公开资讯,更像科技黑盒子。对大公司而言,AIGC可能就是下个新时代的开端,建造科技壁垒无可厚非,但资源消耗,无论立法机构还是大众,都该保持透明度,这也是AI提供便利同时,为何研究员不断挖掘想找到耗费多少资源的理由。

发展AI其实是人类登月

AI耗电、排碳及耗水等研究,并非谴责或反对发展AIGC用资源换取技术改进,是提供AIGC业另一个角度,一条条符合逻辑回答的背后,到底用户或大科技公司付出什么代价。也并非要呼吁Google、微软立刻达成碳中和,并为水资源、电力和间接环境问题买单,转型成Google Green或绿软。

AIGC爆发并不是一簇而就,也不是简单开窍式技术爆发,涵盖许多产业链,更像“水到渠成”。大公司云端运算中心算力增强,以及GPU高效运算、大语言模型参数复杂化,加上AIGC企业一直不计成本投资。ChatGPT 难以复制的原因,除了耗显卡,还有水电费? AI与大数据 图4张

大数据运算中心只是AIGC业的一环

GPT-3出现前,AI能力还属稚嫩,大众也没意识到AI可能会改变世界,但GPT-4、Midjourey V5等出现,AIGC成了硅谷宠儿。此时OpenAI、微软、Google等大量消耗资源,让大算力用途有了初步成果。

同样的AIGC节点类似人类登月那刻。登月动用当时大量资金资源,但月球并没有发现同等可利用资源(暂时)回收,但不能否认登月没有意义,就如现在发展AIGC。因AIGC能发展到什么地步,谁也说不准。

(本文由 爱范儿 授权转载;首图来源:shutterstock)

延伸阅读:

  • 爱德万测试:ChatGPT 热潮带动晶片、设备需求走
  • 时代杂志:AI 算力每半年翻倍,军备竞赛正改变一切
  • 传微软开发自研 AI 晶片 Athena,降低机器学习成本
  • 辉达盘中跃一年高,AI 晶片定价能力震撼唱衰投行

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。