Google 图片辨识 AI 工具将不再标记男女
▼
人工智慧系统虽然能快速辨识和标记影像,不过近来却愈来愈多质疑,认为 AI 有偏见。最近 Google 有鉴于此,停用图片辨识 AI 工具的男女标签,减少性别歧视。
Google 最近向开发者公告,Cloud Vision API 工具将不再使用“男人”和“女人”标签,而改为类似“人”这类较笼统的标签,避免 AI 系统的偏见。Google 解释,由于性别有时很难以外观判断,因此决定根据 Google《人工智慧原则》第二条“避免制造或加强不公平偏见”,移除相关标签。
Google 的图片辨识系统常有争议,早在 2015 年就有人指黑人辨识成大猩猩,后来 2018 年仍然有人发现问题。之后 Google 制定《人工智慧原则》管理人工智慧开发,希望更有效避免偏见等情况出现。
- Google AI tool will no longer use gendered labels like ‘woman’ or ‘man’ in photos of people
(本文由 Unwire HK 授权转载;首图来源:pixabay)
延伸阅读:
- 麻省理工学者揭露,脸部辨识科技有严重种族性别偏见
▼
特别声明 本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。