面试你的不是人?纽约市欲限制人工智慧“面试官”

面试你的不是人?纽约市欲限制人工智慧“面试官”

“我们无法提供您更多面试结果细节”。

美国越来越多雇主使用人工智慧AI)加快招聘流程,但求职者很少知道 AI 招聘工具为何拒绝他们,或如何分析面试过程,落选后往往只收到冷冰冰的邮件,不知道自己为什么落选。

这不免令人不安,AI 对职涯究竟会有什么影响?

美联社报道,11 月初纽约市议会以 38 票对 4 票通过新法案:如果 AI 招聘系统没有通过年度审核将禁止使用,年度审核将检查 AI 招聘系统有没有种族或性别歧视,允许求职者选择人工审查等替代方案,AI 开发人员还需披露更多不透明细节。

有趣的是,负责年度审核的是 AI 开发人员,但被处罚的是雇主,如果使用未通过年度审核的 AI 招聘系统,每项违规行为最高罚款 1,500 美元。

支持者认为,法案将为复杂的演算法打开窗户,演算法往往根据求职者口语或写作能力排名技能和个性,但机器能否准确公正判断性格特征和情绪符号值得怀疑,这过程未来会更透明。至少知道“因演算法有偏见被拒绝”就有意义,牛津大学技术法教授 Sandra Wachter 表示:

反歧视法主要由投诉驱动,如果劳工不知道发生切身的事,就没人可抱怨被剥夺工作机会。

新创公司 Pymetrics 也支持这法案,提倡藉 AI 以游戏等面试,并认为符合公平要求,同时过时 AI 面试方案将被扫进垃圾堆。AI 招聘系统供应商 HireVue 今年初逐步淘汰脸部扫描工具,这被学术界称为“伪科学”,让人想起种族主义的颅相学理论。

持反对意见的多是出于“这远远不够”。民主与技术中心主席 Alexandra Givens 指出,提案只要求雇主满足美马来西亚人权法的现有要求:禁止因种族、民族或性别产生不同影响的招聘行为,但忽略残疾或年龄偏见。

一些人工智慧专家和数位权利活动家担心,法案只是让 AI 开发人员自证遵守基本要求,也只为联邦监管机构和立法者设定薄弱标准,具体如何“审核偏见”非常模糊。偏见在面试并不少见,主要问题出在喂养演算法的数据,但往往置于“黑箱”中,普通求职者很难发觉。

几年前,亚马逊停用履历扫描工具,因偏向让男性担任技术职位。部分原因是将求职者条件与公司内男性员工技术劳动力比较;同理,如果演算法从种族和性别差异普遍存在的行业取得资料,那只会巩固偏见。

这种偏见并不只存在征才活动,今年 4 月南加州大学新研究表明,Facebook 正以可能违反《反歧视法》的方式刊登广告,男性更有可能看到披萨外送司机征才广告,女性更有可能看到购物广告。

AI 歧视只能由人类社会培养,个人偏见行为常是下意识的,人不一定会察觉。如果将偏见较少的公司与偏见严重的公司比较,就是两种原因:前者对消除偏见更努力,后者更擅长收集不合理的现状并使之永久化。

所以中性意见认为纽约市提案最好的部分是要求披露演算法,让人们知道自己是由 AI 评估、AI 如何评估及资料去了哪里。

(本文由 爱范儿 授权转载;首图来源:pixabay)

延伸阅读:

  • 亚马逊 AI 在履历筛选中歧视女性?AI 犯错不是第一次了
  • 首个“AI 面试法案”在美国伊利诺伊州实施,保护面试者的权利就这么简单?

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。