如何消除机器人的“偏见”?先从消除人的偏见做起
▼
你有没有想过这样的问题:Alexa、Siri、Cortana(小娜)、Google Assistant 等虚拟语音助理,为何性别设定都是女的?
在西南偏南大会,几位从事对话人工智慧(conversational AI)行业的女性专家表示,这当中既有偏见,又有道理。
偏见指的是,当一个助理和你对话,大部分人会更习惯助理性别是女的。因为人们期待“她”比男助理更顺从、体贴。
至于道理部分,基于社会学和语言学的研究发现,说话时男性普遍更直接,女性普遍更婉转;男性普遍更武断(assertive),女性普遍更配合(supportive)。
多年以来,对同一种语言,男人和女人普遍形成风格迥异的运用方式。从某种程度上讲,最初也是因为偏见逐渐积累,形成长期的结构性差异。
虚拟助理性别采用女性,就符合这种差异。
偏见(bias),更具体来说,聊天机器人等对话式 AI 的偏见问题,是西南偏南大会(South by Southwest,简称 SXSW)本场论坛的切入点。
除了性别之外,在虚拟语音助理和聊天机器人身上所能找到的偏见,还有许多种类。比如种族歧视、基于政Z立场的偏见等。
专家指出,无论哪种偏见,几乎都是人自己偏见的映射。
IBM 华生人工智慧首席产品经理阿娜米塔‧古哈(Anamita Guha)举例,“如果你一直用叫喊的方式训练人工智慧,那么学到的只会是叫喊。”
科技公司 Pandorabot 创始人兼 CEO 罗伦‧坤泽(Lauren Kunze)认为,微软早年的英语聊天机器人 Tay,就是一个人类偏见投射到聊天机器人最典型的案例。
Tay 和微软小冰有点类似,是一个话题不限制的闲聊式机器人。Tay 采用无监督学习的方式,有一天突然被微软的工程师上线到 Twitter,任何人都可跟它对话,教它东西──结果几天下来,坤泽形容,Tay 被训练成“崇拜希特勒的爱爱机器人”。
“Tay 变成的样子,不就是网际网络的样子吗?”她说,发生这样的情况,人们担心的不应该是聊天机器人的偏见,而是自己的偏见。
▲ 罗伦‧坤泽。
人的偏见是根深蒂固的,很难刨除。甚至连开发 AI 的人不注意时都会显出偏见。
坤泽有次跟微软集团副总裁、杰出科学家程丽丽(Lili Cheng)一起出席对话人工智慧的闭门会议,是会中唯二的女性面孔。当有人问起 IBM 华生的声音为什么是男性时,有人在台下吆喝:“因为男人更睿智。”坤泽说,当时自己和程丽丽都气得直抓桌巾。
其实,华生是一套基于深度学习,面对开发者/企业端的 API,语音输出时可整合 24 种不同的声音。
像华生这样多样化设计对话人工智慧的思路,已逐渐被业界采纳。
Dashbot 的高级开发客户经理贾斯丁娜‧阮(Justina Nguyen)指出,她的客户很多是非科技行业的大品牌公司。设计聊天机器人给客服、行销等用户时,这些公司并不一定要用女性的声音,而是确保聊天机器人和企业形象一致。
就像《水底情深》女主角去的那家甜点店,男服务生为了配合甜点店的亲民形象,装出南方乡巴佬的口音,其实他的老家明明在加拿大。
“你的聊天机器人采用哪种声音、有什么风格,是由你的品牌形象(persona)、你想让消费者获得何种体验决定的。”阮表示。
▲阿娜米塔‧古哈和贾斯丁娜‧阮。
既然聊天机器人的偏见来自人的偏见,而这种偏见现阶段又很难避免,我们有什么可以做的、有哪些规则可先设立,确保开发的聊天机器人安全、尽量减少偏见呢?
坤泽的建议是:如果你做的模型是无监督学习,那么千万不要拿到 Twitter 这类社群网络训练。
阮认为,与其说我们给聊天机器人(或开发它的公司)设定规则,我们更应该给用户设定规则,告诉他们应该怎样和聊天机器人正确对话。
古哈也很同意这观点,“现在的小孩可说是跟虚拟助理、聊天机器人一起长大的。我们可以做个设定,如果用户发一句指令后不加‘请’字,Alexa 就不执行,你们说好不好?”
(本文由 PingWest 授权转载;首图来源:Unsplash)
延伸阅读:
- Google AI 工具禁止性别特定代名词,减少偏见风险
- 当 AI 也开始戴起有色眼镜──有偏见的 AI 是如何产生,又会造成什么影响?
- 对语音助理好一点!当你用“请”或“谢谢”下指令,它也会比较有礼貌地回应你
- 不需礼貌对待也会接受指令的语音助理,会让我们越来越粗鲁吗?
▼
特别声明 本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。