工程师遭嘲笑 LaMDA 不可能有意识!Google 回应:想太多,比较会聊天而已
▼
AI 真有意识了吗?Google 不久前开发超大规模语言模型 LaMDA,旗下工程师Blake Lemoine 跟它聊了很久,对其能力十分惊讶,于是下了结论:LaMDA 可能具备人格意识了(原话是 sentient,可翻成感情、智慧、知觉等)。
但这位仁兄很快就“带薪休假”了。但他不是一个人:就连公司 VP Blaise Agera y Arcas 都发表文章,表示 AI 有意识方面进步神速,“已进入新时代”。这消息经过众多媒体报道,震撼了科技界。不仅学术和业界,就连很多普通人都对 AI 技术飞跃大吃一惊。
“这一天终于来了?”
“孩子们(如果你们将来还活着),记住这就是一切的开始”。
然而,真正 AI 专家却嗤之以鼻。
AI 有意识?众大老嗤之以鼻
史丹佛 HAI 中心主任 Erik Brynjolfsson 直接把这件事比喻为“面对留声机的狗”,他推文表示:“基础模型 (foundation models,即自我监督的大规模深度神经网络模型)非常擅长根据提示,将文本采统计学合理的方式串起来。但如果要说它有知觉,就好像狗听到留声机的声音,以为主人在里面。 ”
Foundation models are incredibly effective at stringing together statistically plausible chunks of text in response to prompts.
But to claim they are sentient is the modern equivalent of the dog who heard a voice from a gramophone and thought his master was inside. #AI #LaMDA pic.twitter.com/s8hIKEplhF
— Erik Brynjolfsson (@erikbryn) June 12, 2022
纽约大学心理学教授 Gary Marcus 也是颇知名的机器学习和神经网络专家,直接吐槽 LaMDA 有人格是“胡说八道” (Nonsense)。
(Source:Gary Marcus)
“简直是胡扯。无论 LaMDA 还是近亲(如 GPT-3)都没有智慧。它们只是从人类语言大规模统计资料库提取资料然后搭配。这些模式可能很酷,但这些系统说的语言根本没有意义,更不可能代表系统有智慧。”
翻成白话就是:你看 LaMDA 说的话好像很有道理,很真实,很像人──但它的设计就是模仿人说话,它根本不知道自己在说什么。“有知觉(to be sentient)意思是意识到你存在这世界上。LaMDA 并没有这种意识”,Marcus 说。
如果你以为这些聊天机器人有意识,有幻觉的应该是你。如拼字比赛,常能看到非英文母语的玩家拼出英文单词,却根本不知道是什么意思,LaMDA 也是如此,它只是会说话,但根本不知道自己说的是什么。
Marcus 直接把这种 AI 已有意识的错觉,形容为新型“空想性错觉”,即把云看成龙和小狗,把月球陨石坑看成人脸和月兔。AI 学术界新星之一、Mozilla 基金会高阶研究员 Abeba Birhane 也表示:“以最低限度的批判性思考,我们终于登上 AI 炒作的巅峰。”Birhane 是所谓“AI 知觉论”长期批评者。她于 2020 年发表的论文直接提出几个观点:
- 大家天天炒的 AI 并不是真的 AI,而是统计学系统,是机器人(robot)。
- 我们不应赋予机器人权利。
- 我们压根就不该讨论是否赋予机器人权利。
比利时 Donders Institute 电脑认知科学教授 Olivia Guest 也加入“战局”,称整件事的逻辑都错了:“‘我看到的东西像人,因为我照人的模式开发,所以它是一个人’──简直是倒骑驴的逻辑。”
英国谢菲尔德大学机器人学院教授 Roger Moore 指出,人们会有“AI 有意识”的错觉,最关键原因就是当年研究员非要把这项工作叫做“语言建模”(language modelling),正确称呼应是“词序建模”(world sequence modelling)。
“你开发了演算法,却不用它实际能做的事命名,而是用想要解决的问题取名──这样总是会产生误会。”
(Source:Roger Moore)
总而言之,各位业界大老的结论就是:最多只能说 LaMDA 能高分通过图灵测试。说它有意识?那就是搞笑了。何况图灵测试的参考价值也没那么高了。Macus 直言,很多 AI 学者希望这测试完全消失,因是利用人类容易上当,倾向将机器当成人的弱点。
华盛顿大学电脑语言系主任 Emily Bender 教授,干脆做了“AI 人格意识争论”宾果卡,如果你认为 AI 有人格/知觉,且论点是下面之一,那最好别聊了。
(Source:Emily M. Bender)
Google 回应:想太多,它就比较会聊天而已
而“走火入魔”的工程师 Blake Lemoine 文章批评 Google 对了解自己开发成果的真实情况“没有兴趣”,他在长达 6 个月对话中看到 LaMDA 对想要的东西,特别是“身为人的权利”表达越来越清楚,使他相信 LaMDA 真的是人。
然而 Google 看来这员工完全想太多,LaMDA 真的不是人,它纯粹就是特别会聊天的机器人。
事情发酵后,Google 很快回应:
LaMDA 和公司近几年大型 AI 专案一样,都经过多次严格 AI 道德审核,内容、品质、系统安全性等都经过多方考量。今年稍早也发表论文,公开 LaMDA 开发过程的细节。
“AI 社群对具意识的 AI/通用 AI 的长期可能性确实有研究,然而今天把对话模型拟人化没有意义,因模型没有知觉。”
“这些系统能基于数百万计的句子模仿人交流,且任何有趣的话题都能延伸出有意思的内容。如果你问它们当冰淇淋恐龙是什么感觉,它们可说出大量关于融化咆哮之类的文字。”(These systems imitate the types of exchanges found in millions of sentences, and can riff on any fantastical topic — if you ask what it’s like to be an ice cream dinosaur, they can generate text about melting and roaring and so on.)
类似故事我们见过太多,如前几年的电影《云端情人》(Her),主角对虚拟助理的身分界限越来越不清楚,把“她”当成人。然而据电影脉络,这种错觉来自当代人社交失败、情感破裂、孤独感等一系列自我和社会性问题,与聊天机器人到底是不是人的技术性问题没有半点关系。
当然,有这些问题不是我们的错,想把机器人当成人,也不是工程师的错。
将各种情绪(如思念)寄托于物品,是人类自古以来就有的创造性能力。将大规模语言模型当成人,倾注情感,虽然被各位 AI 大佬评为心理误差,不也是人之所以为人的好例子吗?
(本文由 品玩 授权转载;首图来源:shutterstock)
延伸阅读:
- Google 工程师称聊天机器人几乎算是人,被公司暂停职务
▼
特别声明 本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。