阻止 AI 说谎!OpenAI 引入新训练法,要人工智慧“停止蒙蔽人类”

阻止 AI 说谎!OpenAI 引入新训练法,要人工智慧“停止蒙蔽人类”

ChatGPT、微软的 Bing 和 GoogleBard 等聊天机器人,在过去半年间展示出令人惊艳的能力,但它们仍有一个致命缺点,那就是会编造答案,即所谓的“人工智慧幻觉”(hallucinations),这让 AI 是否会对人类造成重大危机的讨论就被推向高峰。

OpenAI 希望阻止 AI 产生幻觉

近日 ChatGPT 开发商 OpenAI 就对此发表论文,阐述已找到对策,希望解决 AI 在生成内容时出现的问题,包括“幻觉”和“撒谎”,从而减少模型逻辑错误,避免编造谎言。

根据这篇文章,OpenAI 意识到 AI 系统可能会生成虚假的讯息或误导性的内容,这可能对使用者产生负面影响。为了解决这个问题,他们提出了一种新的训练方法,称为“抑制式学习”(inhibition learning),旨在教导 AI 辨别和避免产生虚假或误导性的内容。

另外,据 CNBC报道,OpenAI 的研究人员表示,未来将会在训练 AI 模型期间加以监督,当 AI 在每个步骤推理正确时,便会给予奖励,而不是仅等到推理出正确的最终结论时才给予奖励。研究人员解释:

这方法为“过程监督”,不再只是进行“结果监督”,相信这能更有效地鼓励模型,可按照类似人类的思考方式进行推理,训练出更好的 AI。

据了解,人工智慧幻觉指的是,AI 自信地生成出看似具说服力、实际却是错误答案的问题,尽管这答案在其训练数据中并不合理。多数研究人员认为,幻觉问题是运行聊天机器人的大型语言模型(Large Language Models)本身设计的问题。

而目前研究人员纷纷提出建议,盼能不断改善相关问题,例如麻省理工学院(MIT)最新报告就提议,让多个机器人相互辩论,来取得更符合事实的答案。

此外,一封包括“OpenAI 执行长”Sam Altman 在内的 350 位 AI 领域的权威专家,也在本周共同签署了一封公开信,呼吁人们重视正在开发的 AI 技术,可能会对人类生存构成重大威胁。

(本文由 动区动趋授权转载;首图来源:Unsplash)

延伸阅读:

  • ChatGPT 之父警告 AI 可能灭绝人类,350 名 AI 权威连署尽速监管

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。