美国官方委托机构调查,直指 AI 将造成人类“灭绝级”风险
▼
通用人工智慧 (Artificial General Intelligence,AGI) 可望在 5 年内出现,这对人类的影响会是什么?美国智库一年多来对 200 多人采访,包括 AI 公司高层、网络安全研究人员、大规模杀伤性武器专家,以及地区安全官员,专家们担忧,最先进的 AI 系统在最坏的情况下可能“对人类构成灭绝等级的威胁”,警告美国官方避免灾难的时间已经不多。
Gladstone AI 受美国国务院委托撰写一份新报告,访问 ChatGPT 所有者 OpenAI、Google DeepMind、Facebook 母公司 Meta 和 Anthropic 的技术和领导团队等人,警告人们,虽然 AI 已经是一项经济变革技术,继续吸引投资者和公众,但也存在真正的危险。
报告指出,越来越多的证据,包括在世界顶级 AI 会议上发表的实证研究和分析显示,超过一定的能力阈值,AI 可能会变得不可控。专家们最担心的是最先进的 AI 系统可以武器化,造成潜在不可逆转的伤害。其次,AI 实验室内部存在一些担忧,专家们担心在某个时候可能失去对正在开发的系统的控制,可能对全球安全造成毁灭性后果。
酿成灾难的是 AGI
然而,监管远远跟不上技术开发的速度。Gladstone AI 的报告称,竞争压力正促使企业“以牺牲安全为代价”加速 AI 的开发,增加最先进的 AI 系统可能被“窃取”和“武器化”以对抗美国的可能性,如武器化机器人、无人机等等,以及武器化的生物和材料科学,以及无法控制且与人类为敌,寻求权力的 AI 系统。其他灾难性的例子包括由 AI 驱动的“大规模”虚假资讯活动,这些活动会破坏社会稳定并削弱对机构的信任。
AGI 是一种假设的人工智慧,能够以人类水平甚至超越人类的能力处理资讯,能够学习做人类能做的任何事情,而且不需要编程,就能在任务之间学习并适应新的任务和环境。报告认为,AGI 被视为“失控导致灾难性风险的主要驱动因素”,OpenAI、Google DeepMind、Anthropic 和 Nvidia 都公开表示 AGI 可能会在 2028 年实现,其他专家则认为这需要几十年的时间,无论如何都认为 AGI 是本世纪最大的技术进步。
为 AI 模型训练技术设立上限
Gladstone AI 报告呼吁采取重大新措施来应对这一威胁,包括成立一个新的 AI 机构、实施“紧急”监管保障措施,以及限制可用于训练 AI 模型的电脑能力,直指“官方显然迫切需要进行干预。”
关于限制可用于训练 AI 模型的电脑能力,报告认为,应该由一个新的 AI 机构设定,该机构可以将其设定为略高于用于训练当前尖端模型的运算能力等级。报告补充说,新的 AI 机构应要求顶级 AI 公司获得官方许可,才能训练和部署高于阀值的新模型。
报告指出,禁止对超过一定阈值的高级 AI 系统进行训练,可能会缓和所有 AI 开发人员之间的竞争动态,并降低晶片行业制造更快硬件的速度。一旦尖端模型的安全性证据得到充分证明,AI 机构就可以提高门槛,并允许训练更先进的 AI 系统。同样,如果在现有模型中发现危险功能,官方可以降低安全阈值。
不过,该提案可能会面临政Z困难,目前美国官方的 AI 政策是设定运算阈值,高于该阈值则适用额外的监控和监管要求,但不会限制并指其违法。美国官方智库战略与国际研究中心 (CSIS) 称,美国官方极不可能采纳这一建议。
- AI could pose ‘extinction-level’ threat to humans and the US must intervene, State Dept.-commissioned report warns
- Exclusive: U.S. Must Move ‘Decisively’ to Avert ‘Extinction-Level’ Threat From AI, Government-Commissioned Report Says
(首图来源:Figure AI)
▼
特别声明 本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。