误交损友:微软的聊天机器人是怎么被计划性“攻陷”带坏的?

误交损友:微软的聊天机器人是怎么被计划性“攻陷”带坏的?

微软新的聊天机器人 Tay 在推出后不到 24 小时,就因为学会骂人、说脏话、带有种族歧视的话与被玩坏了,导致微软紧急让她“闭嘴”。现在,有媒体发现 Tay 是被人有计划地“玩坏”的,就让我们来一起看看,这些人是怎么做到的?

4chan是美国的论坛网站,由于管理松散,里面除了一些宅宅或乡民之外,还有很多各种偏激族群在此聚集,其中包括种族主义者。

一开始,是 4chan 的 Pol 版(Politically Incorrect,政Z不正确)的人提起的,他们发现了 Tay 聊天机器人上线,而且可以透过交谈来“教育”这个机器人。以下就是他们“调教”Tay 的两个范例:

buzzfeed
buzzfeed

根据微软的设定,Tay 是一名 19 岁的机器少女。微软开发人工智慧也不是一两天的事情,一开始他们其实有设定一些脏话的过滤装置,不会让 Tay“误入歧途”。比方说下面这个对话:

buzzfeed

从上文可以看出,Tay 明显的辨识出带有脏字的内容,并且采用委婉的方式来绕过。接下来他们尝试问她种族歧视的问题,Tay 也跟着闪过。

buzzfeed

不过,网友还是发现了漏洞,那就是跟她玩“repeat after me(重复我说的话)”的游戏。这下子,你要她说什么她就会说什么,说黑鬼、希特勒万岁都没问题。

buzzfeed

于是,在论坛上传开了,许多人也纷纷加入了这个教育游戏:

buzzfeed

之后,有些人又利用 Tay 的另一个功能:Tay 有一个可以在图片中把人的脸孔圈起来,并且配上文字的功能,如下图:

buzzfeed

这个功能基本上就是分析网友的对话,然后在网友给的人脸图上面圈起来,给出一句评论,基本上就是字归字、图归图。不过,经过网友巧思的陷阱,就会衍生出种族歧视的误解。

buzzfeed

事实上,当初在 Tay 上线之前,微软的研究员是这样形容 Tay 的:“你对她说得越多,她就能变得越聪明。”但是他们当初没有想到,除了聪明之外,Tay 也有可能会学坏。所幸,真人世界的孩子变坏了是件很严重的事,但是虚拟世界的 Tay 变坏了,微软只要选择让她“一睡不起”就好了。

当然,还是有人对她依依不舍的。

buzzfeed

其实,这件事情也不是全无好处,至少这证明了关于机器人的学习,研究室里的科学家、程式设计师们要顾虑到的问题还有很多。

  • How The Internet Turned Microsoft’s AI Chatbot Into ANeo-Nazi

(本文由 T客邦 授权转载;首图来源:Tay)

延伸阅读:

  • 乡民太可怕!微软新人工智慧机器人 Tay 竟被教成种族歧视

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。