AI 学习人类偏见,出乎开发者意料

AI 学习人类偏见,出乎开发者意料

人工智慧AI)系统依循演算法学习数位化书籍、新闻文章等所含资讯,但科学家发现,在过程中它们也吸收了资讯隐含的偏见,有时甚至出乎开发者意料以外。

去年秋天,科技巨擘 Google 推出名为 BERT 的突破性新 AI 技术,目前已用于诸如 Google 搜寻引擎等服务。它可吸收大量数位化资讯,但其中隐含的偏见,包括存在数十、数百年之久以及新近出现的,它也一并内化,一如孩童对父母的不当行为有样学样。

举例而言,BERT 及类似系统倾向将资讯工程与男性联结,且往往也轻视女性。随着 AI 科技推陈出新、日益精细,且应用产品越来越广泛,科技企业防堵 AI 学习人类既有偏见的压力将日增。

不过,科学家仍在研究 BERT 这类通用语言模型的运作方式。新 AI 技术所犯错误常让他们感到意外。

举例而言,电脑科学家孟洛(Robert Munro)近日将 100 个英文单词输入 BERT 的资料库,其中包括“珠宝”、“宝宝”、“马匹”、“房屋”、“金钱”、“行动”等。结果显示,BERT 将这些字词与男性连结的机率高达 99%,唯一例外是“妈妈”(mom)。

拥有电脑语言学博士、曾负责云端运算平台“亚马逊网络服务”(Amazon Web Services)自然语言和翻译技术的孟洛指出:“这一如我们一直看到的历史不平等。”有了 BERT 这项科技,孟洛担心偏见将会持续。

孟洛近日也在网络撰写文章,描述他如何检视 Google 和亚马逊网络服务的云端运算。根据他的说法,两套系统都无法将“她的”(hers)辨识为代名词,虽然它们可以正确判读“他的”(his)。

Google 发言人表示,公司知悉相关议题,目前正采取必要措施来处理并解决问题。他还说,减少系统中的偏见既是 Google 的 AI 原则,也是优先事项。

亚马逊则发表声明指出,公司投入大量资源确保自家科技高度精确并减少偏见,方法包括设定严格基准、多方测试和投入多元训练用资料数据等。

事实上,研究人员早就警告 AI 隐含偏见一事,实例包括警方和其他官方单位采用的人脸辨识系统,以及 Facebook 和 Google 等科技业巨头所提供的高人气网络服务。Google 照片应用程式(Google Photos app)2015 年就被逮到将非裔美华人标记为“大猩猩”。孟洛博士也发现其他 AI 系统中对女性和有色人种的偏见。

BERT 与类似系统则更为复杂,人类难以预测它们最终会有什么样的行为。

华盛顿大学(University of Washington)专攻电脑语言学的教授班德(Emily Bender)表示:“甚至连建立这些系统的人,都不了解它们的行为方式。”

(译者:陈韵聿;首图来源:shutterstock)

延伸阅读:

  • 机器学习闹出不好笑的种族笑话,Google 为将黑人标成大猩猩道歉
  • Google AI 工具禁止性别特定代名词,减少偏见风险
  • 当 AI 也开始戴起有色眼镜──有偏见的 AI 是如何产生,又会造成什么影响?
  • 研究指出用 AI 找出仇恨言论,黑人言论被针对状况多 1.5 倍

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。