工程师遭嘲笑 LaMDA 不可能有意识!Google 回应:想太多,比较会聊天而已

工程师遭嘲笑 LaMDA 不可能有意识!Google 回应:想太多,比较会聊天而已

AI 真有意识了吗?Google 不久前开发超大规模语言模型 LaMDA,旗下工程师Blake Lemoine 跟它聊了很久,对其能力十分惊讶,于是下了结论:LaMDA 可能具备人格意识了(原话是 sentient,可翻成感情、智慧、知觉等)。

但这位仁兄很快就“带薪休假”了。但他不是一个人:就连公司 VP Blaise Agera y Arcas 都发表文章,表示 AI 有意识方面进步神速,“已进入新时代”。这消息经过众多媒体报道,震撼了科技界。不仅学术和业界,就连很多普通人都对 AI 技术飞跃大吃一惊。

“这一天终于来了?”

“孩子们(如果你们将来还活着),记住这就是一切的开始”。

然而,真正 AI 专家却嗤之以鼻。

AI 有意识?众大老嗤之以鼻

史丹佛 HAI 中心主任 Erik Brynjolfsson 直接把这件事比喻为“面对留声机的狗”,他推文表示:“基础模型 (foundation models,即自我监督的大规模深度神经网络模型)非常擅长根据提示,将文本采统计学合理的方式串起来。但如果要说它有知觉,就好像狗听到留声机的声音,以为主人在里面。 ”

纽约大学心理学教授 Gary Marcus 也是颇知名的机器学习和神经网络专家,直接吐槽 LaMDA 有人格是“胡说八道” (Nonsense)。

工程师遭嘲笑 LaMDA 不可能有意识!Google 回应:想太多,比较会聊天而已 AI与大数据 图2张

(Source:Gary Marcus)

“简直是胡扯。无论 LaMDA 还是近亲(如 GPT-3)都没有智慧。它们只是从人类语言大规模统计资料库提取资料然后搭配。这些模式可能很酷,但这些系统说的语言根本没有意义,更不可能代表系统有智慧。”

翻成白话就是:你看 LaMDA 说的话好像很有道理,很真实,很像人──但它的设计就是模仿人说话,它根本不知道自己在说什么。“有知觉(to be sentient)意思是意识到你存在这世界上。LaMDA 并没有这种意识”,Marcus 说。

如果你以为这些聊天机器人有意识,有幻觉的应该是你。如拼字比赛,常能看到非英文母语的玩家拼出英文单词,却根本不知道是什么意思,LaMDA 也是如此,它只是会说话,但根本不知道自己说的是什么。

Marcus 直接把这种 AI 已有意识的错觉,形容为新型“空想性错觉”,即把云看成龙和小狗,把月球陨石坑看成人脸和月兔。AI 学术界新星之一、Mozilla 基金会高阶研究员 Abeba Birhane 也表示:“以最低限度的批判性思考,我们终于登上 AI 炒作的巅峰。”Birhane 是所谓“AI 知觉论”长期批评者。她于 2020 年发表的论文直接提出几个观点:

  1. 大家天天炒的 AI 并不是真的 AI,而是统计学系统,是机器人(robot)。
  2. 我们不应赋予机器人权利。
  3. 我们压根就不该讨论是否赋予机器人权利。

比利时 Donders Institute 电脑认知科学教授 Olivia Guest 也加入“战局”,称整件事的逻辑都错了:“‘我看到的东西像人,因为我照人的模式开发,所以它是一个人’──简直是倒骑驴的逻辑。”

工程师遭嘲笑 LaMDA 不可能有意识!Google 回应:想太多,比较会聊天而已 AI与大数据 图3张

英国谢菲尔德大学机器人学院教授 Roger Moore 指出,人们会有“AI 有意识”的错觉,最关键原因就是当年研究员非要把这项工作叫做“语言建模”(language modelling),正确称呼应是“词序建模”(world sequence modelling)。

“你开发了演算法,却不用它实际能做的事命名,而是用想要解决的问题取名──这样总是会产生误会。”

工程师遭嘲笑 LaMDA 不可能有意识!Google 回应:想太多,比较会聊天而已 AI与大数据 图4张

(Source:Roger Moore)

总而言之,各位业界大老的结论就是:最多只能说 LaMDA 能高分通过图灵测试。说它有意识?那就是搞笑了。何况图灵测试的参考价值也没那么高了。Macus 直言,很多 AI 学者希望这测试完全消失,因是利用人类容易上当,倾向将机器当成人的弱点。

华盛顿大学电脑语言系主任 Emily Bender 教授,干脆做了“AI 人格意识争论”宾果卡,如果你认为 AI 有人格/知觉,且论点是下面之一,那最好别聊了。

工程师遭嘲笑 LaMDA 不可能有意识!Google 回应:想太多,比较会聊天而已 AI与大数据 图5张

(Source:Emily M. Bender)

Google 回应:想太多,它就比较会聊天而已

而“走火入魔”的工程师 Blake Lemoine 文章批评 Google 对了解自己开发成果的真实情况“没有兴趣”,他在长达 6 个月对话中看到 LaMDA 对想要的东西,特别是“身为人的权利”表达越来越清楚,使他相信 LaMDA 真的是人。

然而 Google 看来这员工完全想太多,LaMDA 真的不是人,它纯粹就是特别会聊天的机器人。

事情发酵后,Google 很快回应:

LaMDA 和公司近几年大型 AI 专案一样,都经过多次严格 AI 道德审核,内容、品质、系统安全性等都经过多方考量。今年稍早也发表论文,公开 LaMDA 开发过程的细节。

“AI 社群对具意识的 AI/通用 AI 的长期可能性确实有研究,然而今天把对话模型拟人化没有意义,因模型没有知觉。”

“这些系统能基于数百万计的句子模仿人交流,且任何有趣的话题都能延伸出有意思的内容。如果你问它们当冰淇淋恐龙是什么感觉,它们可说出大量关于融化咆哮之类的文字。”(These systems imitate the types of exchanges found in millions of sentences, and can riff on any fantastical topic — if you ask what it’s like to be an ice cream dinosaur, they can generate text about melting and roaring and so on.)

类似故事我们见过太多,如前几年的电影《云端情人》(Her),主角对虚拟助理的身分界限越来越不清楚,把“她”当成人。然而据电影脉络,这种错觉来自当代人社交失败、情感破裂、孤独感等一系列自我和社会性问题,与聊天机器人到底是不是人的技术性问题没有半点关系。

当然,有这些问题不是我们的错,想把机器人当成人,也不是工程师的错。

将各种情绪(如思念)寄托于物品,是人类自古以来就有的创造性能力。将大规模语言模型当成人,倾注情感,虽然被各位 AI 大佬评为心理误差,不也是人之所以为人的好例子吗?

(本文由 品玩 授权转载;首图来源:shutterstock)

延伸阅读:

  • Google 工程师称聊天机器人几乎算是人,被公司暂停职务

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。