AI 运算受限电力?微软工程师:同州部署超过 10 万片 H100,电网就会崩溃

AI 运算受限电力?微软工程师:同州部署超过 10 万片 H100,电网就会崩溃

随着 AI 运算要求越来越快,能源也成为值得担忧的议题。虽然 Open AIGPT-5 尚未发布,但目前有消息称 OpenAI 似乎已着手训练 GPT-6,而外传 7 月发布 Llama 3 的 Meta,也有望提早至 6 月推出。

AI 新创 OpenPipe 联合创办人 Kyle Corbitt 在社群平台 X 上分享,GPT-5 有望 4 月下旬发布,Meta Llama 3 则是 6 月发布,以打败另一间法国小新创 Mistral。

接着 Corbitt 发布另篇文章,表示与微软工程师讨论有关 GPT-6 的训练集群项目及在新版本中遇到的问题。该位工程师抱怨对不同区域的 GPU 之间无限级别链接(infiniband-class links),实在非常痛苦。

Corbitt 续问“为何不将训练集群集中同一个区域?”对方回应有尝试过,但无法在同一州(a single state)下放置超过 10 万片 H100 GPU,否则会导致电网瘫痪。

目前不确定微软工程师所提到的 a single state 是指同一州,还是指同一个状态,但据市调机构 Factorial Funds报告显示,OpenAI 的文字生成影片模型 Sora 一个月内使用 4,200 至 10,500 片 H100 GPU,其中单个 H100 能在约12 分钟内生成一个一分钟影片,或者每小时约 5 个一分钟影片。而在 Sora 高峰时期需要 72 万个 H100 GPU。换言之,Sora 高峰时期如果训练集群摆放在同个位置,可能是七个州的电网崩溃。

Corbitt 指出,不确定新 GPT 版本叫 GPT-5、GPT-4.5 还是带企业扩展的 GPT-4J。但不可否认的是,越强大的AI 出来,开发这些模型的成本也就越来越高,面临的环境问题也越大。

Open AI 刚刚免费发布 GPT-4 Turbo,目前已知 GPT-5 计划今年稍晚时发布。

  • GPT-5 and Llama 3 might be coming a lot sooner than expected. GPT-6 in the works!
  • OpenAI Sora video tool large-scale deployment uses 720,000 NVIDIA H100 GPUs worth $21.6 billion

(首图来源:shutterstock)

延伸阅读:

  • 类似皮肤!史丹佛大学开发柔性、可拉伸 IC,成功驱动 Micro LED 萤幕
  • 高通、英特尔、Google 组队打 Nvidia!拟靠 oneAPI 推翻 CUDA 势力

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。