ChatGPT 之父警告 AI 可能灭绝人类,350 名 AI 权威连署尽速监管

ChatGPT 之父警告 AI 可能灭绝人类,350 名 AI 权威连署尽速监管

AI 界又出现重要连署,“ChatGPT 之父”Sam Altman 等 350 位 AI 权威都加入呼吁行列,担忧开发中 AI 可能对人类构成生存威胁。

这封信主旨为:Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.(降低人工智慧灭绝风险,应与流行病和核战等其他社会规模风险一样为全球优先事项)。

发起人为三家领先 AI 企业高层:OpenAI 首席执行长 Sam Altman、Google DeepMind 首席执行长 Demis Hassabis、Anthropic 首席执行长 Dario Amodei。其他重要名单还有人工智慧“教父”Geoffrey Hinton 和 Yoshua Bengio。

ChatGPT 之父警告 AI 可能灭绝人类,350 名 AI 权威连署尽速监管 AI与大数据 图2张

超过 350 名人工智慧高层、研究员和工程师都参加这由非营利组织 Center for AI Safety 发起的连署,认为人工智慧可能导致人类灭绝的风险,应视为与流行病和核战同等的社会风险。如今人们越来越担心 ChatGPT 等人工智慧模型可能对社会和工作造成威胁,很多人呼吁完整规范 AI 业,否则将对社会造成不可挽回的破坏。

AI 不断狂飙,但监管审查法规还未跟上,代表没人能确保 AI 工具及使用 AI 工具时是否安全。上周 Sam Altman 和 OpenAI 两位高层提出应建立类似国际原子能机构的国际组织监管 AI,呼吁国际领先人工智慧企业应合作,并要求官方强化监管尖端人工智慧企业。

其实 3 月就出现停止 AI 研究 6 个月的连署信,由马斯克带头,呼吁所有 AI 实验立即暂停研究比 GPT-4 更先进的 AI 模型至少 6 个月,因 AI 进步速度太惊人,但监管审查法规还未跟上,代表没人能保证 AI 工具和使用时的安全,这封信获 2018 年图灵奖得主 Yoshua Bengio、苹果联合创办人史蒂夫‧沃兹尼亚克、Skype联合创办人、Pinterest 联合创办人、Stability AI CEO 等多位知名科技大头支援,截稿前连署数达 1,125 人。连署信翻译如下,供读者参考这些科技大头在担心什么。

人工智慧有与人类竞争的智慧,可能造成社会和人类深刻风险,已透过大量研究证实,并取得顶级 AI 实验室认可。正如阿西洛马人工智慧原则(Asilomar AI Principles)指出,先进 AI 可能代表地球生命重大变革,应以同等关注和资源规划管理。

即使最近几个月,AI 实验室开发部署越来越强大数位思维陷入失控竞争,没人能理解、预测或可靠控制这些数位思维,即使创造者也无法做到。现代 AI 系统的通用任务有与人类竞争的能力,我们必须问自己:

  • 应该让机器充斥资讯管道,传播宣传和说谎吗?
  • 应该将所有工作自动化,包括让人有满足感的工作吗?
  • 应该发展可能最后超过取代我们的非人类思维吗?
  • 我们应该冒失控文明的风险吗?

这些决策不该由非选举产生的科技领导人负责。只有当我们确信 AI 系统影响是积极、风险可控,才开发强大的 AI 系统。这种信心必须有充分理由,并随着系统潜在影响增加而强化。OpenAI 最近人工智慧声明指出:“某些时候,可能需要开始训练系统前取得独立审查,对于先进科技的努力,需要限制创建新模型的计算增长速度。”我们同意,现在就是那个时刻。

呼吁所有 AI 实验室立即暂停开发至少 6 个月,不要训练比 GPT-4 更强大的 AI 系统。暂停应公开和可验证,包括所有关键参与者。如果无法快速暂停,官方应介入并施行暂禁令。

AI 实验室和独立专家应利用暂停时间共同制定先进 AI 设计和开发安全协定,再由独立外部专家严格审核和监督。协定应确保遵守系统在合理怀疑范围以外也安全。这不代表暂停 AI 发展,只是在不断迈向更大更不可预测的黑箱模型及突现能力的危险竞赛中往后退。

AI 研究和开发应聚焦提高现有先进系统的准确性、安全性、可解释性、透明度、强健性、可信度和忠诚度。

同时 AI 开发者必须与政策制定者合作,加速 AI 管理系统发展。至少要有以下条件:

  • 专门负责 AI 的新强力监管机构
  • 监督关注强大 AI 系统和大型计算能力池
  • 区分真实与合成内容、关注模型来源和浮水印系统
  • 健全审查和认证系统;AI 造成损害如何承担责任
  • AI 安全研究有充足公共资金
  • 处理 AI 造成巨大经济和政Z变动(特别是民主制度)的资深机构

人类可受 AI 帮助享受灿烂的未来。成功创造强大 AI 系统后,我们现在可以享受“AI 盛夏”,收获回报,并将这些系统用于造福所有人,并让社会有机会适应。

面临可能造成灾难性影响的其他技术,社会已按下暂停键。我们也能这样做,让我们享受漫长的 AI 盛夏,而不是毫无准备冲向秋天。

(本文由 爱范儿 授权转载;首图来源:Center for AI Safety)

延伸阅读:

  • Google 创办人不在意 AI 安全?马斯克:我们不欢而散
  • Google 为了追上 ChatGPT 降低道德底线,还能说“不作恶”吗?
  • 担心内地技术超车,Google 前执行长反对暂缓 AI 研究
  • 马斯克带头呼吁暂停开发 AI,科技巨头、新创企业听得进去吗?
  • 恐危及全人类,抵制 ChatGPT!马斯克组团呼吁“暂停打造比 GPT-4 更强 AI”

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。