麻省理工学院为种族歧视资料库 Tiny Images 致歉并永久下架
▼
人工智慧利用深度学习获得分析能力,虽然本身并没有偏见和歧视,但训练用的资料库还是难免有人类偏见。最近麻省理工学院(MIT)为提供的 Tiny Images 资料库致歉,因被指有偏见,训练出来的人工智慧恐有同样问题。
MIT 的 Tiny Images 公开资料库,是训练人工智慧图像辨识系统常用的工具,数据量非常庞大,有多达 8 千张图片和相关词汇,不过内容其实相当参差,例如会将黑人和亚洲人与负面词语连结,也有性别歧视内容。因此当开发人员不清楚详细情况就使用,训练出来的图像辨识系统就有偏见和歧视,特别执法机关挪作监控之用时就更有问题。
MIT 衷心为此资料库道歉,并已移除 Tiny Images 不再公开,更要求研究人员和开发者停止使用此资料库训练人工智慧,且删除相关资料,避免以后再被人误用。负责人受访时承认应该人工筛选内容,此资料库内容都是网络自动取得,因此含冒犯性和充满偏见。
- MIT apologizes, permanently pulls offline huge dataset that taught AI systems to use racist, misogynistic slurs
(本文由 Unwire Pro 授权转载;首图来源:shutterstock)
▼
特别声明 本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。