OpenAI 发表强人工智慧研究纲领:让 AI 造福全人类

OpenAI 发表强人工智慧研究纲领:让 AI 造福全人类

近期Facebook泄露用户资料、针对性影响用户、Uber 自驾车事故,以及全球学者联名抵制南韩开发自主武器的事情再次敲响了人工智慧安全的警钟。OpenAI也于 9 日发表了一份研究纲领,表明自己的研究使命和行动法则,希望担负起“让人工智慧造福全人类”这伟大事业自身那部分的责任。文章涵盖了过去两年的研究逐渐成形的研究策略,以及来自OpenAI内外的各种回馈。

OpenAI 发表强人工智慧研究纲领:让 AI 造福全人类 AI与大数据 图2张

OpenAI的使命是确保强人工智慧(artificial general intelligenceAGI,也称通用人工智慧)──能在多数有经济价值的工作展现超越人类表现的高度自动化系统──会为全人类带来福祉。OpenAI 不仅希望透过自己的努力直接建造出安全、有益的强人工智慧,且愿意帮助其他研究组织共同制造这种强人工智慧。

为了达到目标,OpenAI设定了这些纲领:

广泛参与,广泛贡献

  • OpenAI承诺,在强人工智慧的开发过程中,OpenAI将动用所有影响力,确保它造福全人类,以及避免把人工智慧/强人工智慧用于会伤害人类的情形或工作,以及避免被集权控制。
  • OpenAI承担的责任主要对全人类负责。如果有必要,他们准备好对外分享所有重要研究资源;同时也会积极行动,尽量减少股东和OpenAI工作人员之间的利益冲突,保证让更多人受益。

强人工智慧的长远安全问题

  • OpenAI保证强人工智慧安全性的研究,并在整个AI研究领域推动大规模展开。
  • OpenAI担心末端强人工智慧开发成为一场竞争性比赛,比赛中也就不会分配时间给必要的安全防护措施。所以,如果OpenAI研发自己的项目之前出现一个价值均衡、注重安全的强人工智慧,OpenAI承诺将停止竞争,并辅助这个强人工智慧。OpenAI未来会针对每个专案列出具体执行细节,不过典型的触发规则可能会类似“未来两年内能成功的机率超过一半一半”。

技术领头人

  • 为了有效展现强人工智慧的影响力给整个社会,OpenAI也需要站在AI能力开发的前线──在政策和安全性方面仅发出声音是不够的。
  • OpenAI相信人工智慧在强人工智慧之前就会产生广泛的社会影响,OpenAI也会努力在与自己的使命和经验相吻合的领域保持领导地位。

合作方向

  • OpenAI会和其他研究机构及策略制定机构积极合作,希望建立一个全球性合作社群,共同应对强人工智慧的全球性挑战。
  • OpenAI承诺将提供全社会公开资讯,帮助社会走向与强人工智慧共处的时代。目前要做的内容包括公开发表大多数人工智慧研究成果,同时OpenAI也希望,随着未来对安全和防护的担忧越来越多,老式成果发表将会减少,转变为分享安全、策略和标准化的研究。

人类何时能研发出真正的强人工智慧还未可知,但OpenAI也希望自己的纲领可引导强人工智慧的研发过程中体现出全人类的最大利益。

这份纲领发出后,已有一些学者积极回馈,非常欢迎OpenAI这种举动,同时也认可OpenAI积极坚定的态度,钦佩OpenAI 如此公开承诺。

我们也非常期盼强人工智慧的到来,且希望真的到来那一天,真是全人类的福祉。相信到时肯定有一份OpenAI的功劳。

  • OpenAI Charter

(本文由 雷锋网 授权转载;首图来源:shutterstock)

延伸阅读:

  • OpenAI 和 Google 如何预防人工智慧失控?
  • 台大资工系教授林守德:论第三波人工智慧技术革命

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。