Google 图片辨识 AI 工具将不再标记男女

Google 图片辨识 AI 工具将不再标记男女

人工智慧系统虽然能快速辨识和标记影像,不过近来却愈来愈多质疑,认为 AI 有偏见。最近 Google 有鉴于此,停用图片辨识 AI 工具的男女标签,减少性别歧视。

Google 最近向开发者公告,Cloud Vision API 工具将不再使用“男人”和“女人”标签,而改为类似“人”这类较笼统的标签,避免 AI 系统的偏见。Google 解释,由于性别有时很难以外观判断,因此决定根据 Google人工智慧原则》第二条“避免制造或加强不公平偏见”,移除相关标签。

Google 的图片辨识系统常有争议,早在 2015 年就有人指黑人辨识成大猩猩,后来 2018 年仍然有人发现问题。之后 Google 制定《人工智慧原则》管理人工智慧开发,希望更有效避免偏见等情况出现。

  • Google AI tool will no longer use gendered labels like ‘woman’ or ‘man’ in photos of people

(本文由 Unwire HK 授权转载;首图来源:pixabay)

延伸阅读:

  • 麻省理工学者揭露,脸部辨识科技有严重种族性别偏见

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。