AI 服务器用电量等于一小国,研究:没必要每个 App 都有 AI

AI 服务器用电量等于一小国,研究:没必要每个 App 都有 AI

人工智慧将会成为人类的第二大脑,但也是头碳排怪兽。数据科学家分析,到 2027 AI 服务器每年使用的电力相当于阿根廷、荷兰和瑞典等小国一年的用电量,而且这还是保守估计,作者提醒,每个人应该认真思考 AI 的必要性。

阿姆斯特丹自由大学商业与经济学院博士候选人 Alex de Vries,他也是研究公司 Digiconomist 创办人,定期公布比特币能源消耗指数。这次他想知道 AI 服务器的电力消耗量,但资料太少,他只能透过 Nvidia A100 服务器预计销量计算电力消耗,NvidiaAI 晶片市场95%

研究基于2027 Nvidia 可能会出货 150 万台此类服务器,乘以服务器的用电量,估计届时 AI 服务器电力消耗与荷兰、瑞典等小国一年用电量一样多。研究中特别强调推理阶段,他说先前研究关注模型训练阶段的用电量,但他认为,推理阶段消耗的能源其实更可观。

ChatGPT 为例,OpenAI 需要 3,617 台基于 Nvidia HGX A100 平台的服务器,总共配备 28,936 GPU,等于每天的能源需求为 564 MWh。相较之下,GPT-3 模型训练阶段估计所使用的电量为 1,287 MWh

研究假设是市场对 AI 的兴趣不减,以及 AI 晶片的可用性,但是作者认为,由于 Nvidia 生产能力有限,因此当前的硬件和软件全面采用 AI 不太可能迅速发生。但即使 Nvidia 晶片供应有限是 AI 成长的瓶颈,企业也不会停止 AI 发展,现在都急于寻找替代来源。

一些专家已呼吁企业在设计下一代 AI 硬件和软件时应考虑电力消耗,但专家悲观认为,市场竞争激烈,企业不可能有余裕考虑环境影响。除了电力问题,为了冷却资料中心的水量也非常可观,研究发现,每次使用聊天机器人回答问题,就需要 1 瓶水来冷却。根据微软公布的资讯,由于资料中心冷却需求增加,去年用水量大增 34%Gogole 也报告 20% 的成长,加州大学研究人员认为是生成式 AI 使用增加导致。

加州新法逼企业更透明

加州与气候有关的法案一直走在世界之先,最近加州州长 Gavin Newsom签署两项重要的气候揭露法,规定所有在加州开展业务的大公司,包括OpenAI Google 等 AI 密集型公司在气候风险资讯方面都必须更加透明。

法案要求所有全球年收入超过 10 亿美元的私人公司,2026 年揭露营运产生碳量,到 2027 年必须揭露供应链中产生的碳量。2026 年,年收入超过 5 亿美元的公司,也必须公布与气候相关的财务数据。外媒评论指出,该规定在美国尚属首例,可能有上万家公司受到影响,这些法律也可能产生超出州界的影响。

研究作者呼吁必须针对 AI 的永续性提出质疑,科技公司需要提高透明度,并为整个 AI 开发制定更谨慎的方法,由于 AI 不能解决所有问题,人们也应该思考应用程式是否真的都需要 AI。

  • Really? Bing Chat and ChatGPT could consume enough to power a small country for a year by 2027.
  • A.I. Could Soon Need as Much Electricity as an Entire Country
  • AI is changing how we work and create. It’s also damaging our environment.

(首图来源:Pixabay)

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。