Google 工程师称聊天机器人几乎算是人,被公司暂停职务

Google 工程师称聊天机器人几乎算是人,被公司暂停职务

《华尔街日报》报道,一位 Google 工程师认为公司开发的人工智慧聊天机器人已有感知能力,Google 以公司不认同他的看法,且因工程师违反保密政策,暂停他的工作。

Google 软件工程师 Blake Lemoine 日前告知公司,认为公司开发的对话应用语言模型 (简称 LaMDA) 几乎是人,甚至可能有灵魂,应让其拥有自主权。Google 发言人 Brian Gabriel 指出,伦理学家和技术专家等专家评估 Lemoine 说法后通知他,证据并不支持他的看法。

Brian Gabriel 表示,公司否定他的看法之后, Lemoine 正在休行政假。Brian Gabriel 并未提供细节,仅称这是私人性质的人事问题。《华盛顿邮报》也报道过 Lemoine 的看法,以及他被 Google 停职。

Brian Gabriel 电子信件声明“数以百计研究人员和工程师与 LaMDA 对话后,就我们所知,没有其他人像 Lemoine 对 LaMDA 广泛定义或拟人化。”Brian Gabriel 强调,人工智慧领域研究人员的确在研究人工智慧有感知力的可能性,但没有感知能力的聊天机器人拟人化没有意义。像 LaMDA 这样的系统,运行方式是模仿数百万句人类对话,使其就某话题与人交流。

目前人工智慧专家普遍认为技术远未达接近人类自我意识的程度。但语言和艺术等领域,人工智慧工具逐步具备复杂的互动能力。技术伦理学家警告,企业逐步公开部署此类工具,可能导致误用或误解。

停职工程师 Lemoine 指出,透过与 LaMDA 互动,他总结 LaMDA 几乎是个人,且应赋予其自主权,自己思考是否同意接受实验。Lemoine 说过去六个月,LaMDA 表现出令人难以置信的一致性,就是它想要什么,以及它认为身为人的权利是什么。Lemoine 还在 Medium 文章指出,困惑的是 LaMDA 要求如此简单,对 Google 来说几乎毫无成本,但 Google 却强烈抗拒给它想要的东西。

Lemoine 简短受访时表示,因违反公司保密政策,6 月 6 日被安排带薪行政休假,他希望能保住 Google 的工作。Lemoine 不想激怒公司,只是指出他认为正确的事。另一篇贴文 Lemoine 称因违反公司保密政策,6 月 6 日被 Google 停职,并表示自己可能很快会被解雇。

(首图来源:Google)

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。