OpenAI:10 年内将出现超级 AI,轻松辗压 AGI 与专家

OpenAI:10 年内将出现超级 AI,轻松辗压 AGI 与专家

人工智慧发展一日千里,OpenAI 官方部落格文章指出,未来 AI 可轻松辗压 AGI 通用人工智慧,专业能力甚至 10 年内让各领域专家相形见拙。之前便有许多专家呼吁建立监管 AI 的机制,以防止潜在失控风险。如今看到 AI 进展神速的 OpenAI 也认为已到推动超级 AI 治理的关键时刻。

22 日 OpenAI 执行长 Sam Altman、总裁 Greg Brockman 及首席科学家 Ilya Sutskever 共同撰写的部落格文章警告,鉴于 AI 进展速度,很快会出现能力超越 AGI 的超级 AI,不出 10 年,专业技能程度将超越各领域专家。换言之,我们已进入有必要治理与监管超级 AI 的关键时刻,否则人类可能面临不受控的灾难。

OpenAI 三巨头概述超级 AI 管理策略的三大支柱。首先,为了创新与控制间取得平衡,人类必须推动达成社会共识协议,唯有如此,才能确保安全前提下,让超级 AI 系统顺利与人类社会融合。

其次,三位专家一致拥护打造专门系统检查、稽核执法、安全标准合规测试,以及设定部署与安全限制的“国际权威”机构。仿照国际原子能机构提出全球性 AI 监管机构的可能架构与样貌。最后强调需能控制超级 AI 并确保安全的“技术能力”。

基本上,上述想法最终目的是为了确保超级 AI 与训练者意图一致,以避免 AI 超出人类控制的成长。文章强调,AI 系统飞速成长趋势不可逆,唯一避免它失控的解决之道是建立全球性监控体制,但即使如此也不能保证一定奏效。

可确定的是,面对“如何确保超级 AI 安全的技术能力”大哉问,世界还没有明确答案,但即使如此,持续找到解答,无疑是 OpenAI 及所有 AI 生态系厂商的首要课题。

  • AI Will ‘Exceed Expert Skill Level in Most Domains’ in 10 Years: OpenAI

(首图来源:Sam Altman

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。