简单原理可骗过人脸辨识系统,戴上这眼镜它就错认你是谁
▼
关心图像辨识研究的朋友可能知道,为了评估和改进 AI 的辨识能力,研究人员会设计一些“对抗性”图像,主要被用来欺骗机器视觉系统。
之前就介绍过麻省理工大学一项研究,他们用演算法生成“对抗性”图像,并加到 3D 列印模型上,之后用这些模型去骗 Google 的图像分类 AI。
测试的结果有多夸张呢?3D 列印的乌龟玩具被认成了步枪,AI 眼中的棒球竟然是一杯浓缩咖啡。
(Source:labsix)
AI 对 3D 物品的错认足以引起我们对诸如自动驾驶、智慧监控等系统的担忧,因为这些都很依赖 AI 的图像辨识能力。如果当下正受追捧的人脸辨识技术也被“对抗性”图像攻破,那么我们日常生活类似刷脸支付、刷脸过检等行为,岂不是有巨大的安全风险?
新的研究证明,这份担心非常有必要。因为现在,能欺骗脸部辨识系统的眼镜已经出现了。
▲ 与一些浮夸的伪装面具不同,它们看上去还比较普通。(Source:Carnegie Mellon University)
这副反脸部辨识眼镜由美国卡内基美隆大学和北卡罗莱纳大学的研究人员合作开发,一共有 5 种。使用者戴上眼镜后,就能成功骗过脸部辨识系统的“眼睛”。
▲ 一名男性在佩戴后被辨认成女演员蜜拉‧乔娃维琪,而他的女同事则成功扮演一个中东男人。(Source:Carnegie Mellon University)
研究人员兼联合开发者 Mahmood Sharif 接受 Vice 采访时说,眼镜设计用来误导基于神经网络学习的脸部辨识系统,它成功骗过 Face++ 的机率为 90%。Face++ 是一款专注人脸检测、分析和辨识的软件。
该脸部辨识软件的神经网络是基于对人脸像素颜色的分析来猜测一个人的身分,被测者脸上任何轻微变化都会影响整个辨识系统。
Sharif 表示,他们透过最佳化演算法找到可躲过系统辨识的眼镜颜色,并且保证颜色平滑过渡(类似于自然图像)。这些图案会扰乱脸部辨识系统的感知,影响 AI 读取的准确性。
▲ 研究人员透露,这种眼镜可由用户自行列印。(Source:Carnegie Mellon University)
目前,这些反脸部辨识眼镜已针对 VGG 和 OpenFace 深度神经网络系统进行测试,结果显示欺骗成功。
我们的研究表明,基于深度神经网络的脸部辨识是一种特殊的演算法,可被一个不做任何改变只是简单戴副眼镜的人误导。
也就是说,脸部辨识系统非常容易受到攻击,试想如果反脸部辨识眼镜被犯罪分子戴着,就能轻易逃过公共系统监控,或以别人的身分进入某家公司。
不过,对这副眼镜的评价,很大程度上也取决于我们如何看待脸部辨识技术。一方面,注重隐私的人会对眼镜的前景感到兴奋,因为它可以帮我们绕过公共场合的众多监控。一个数据是,如果我们生活在一个城市地区,平均每天会被拍到 70 次,且还可被脸部辨识技术认出来。
另一方面,脸部辨识也经常用来保障我们的安全,比如机场正大量应用人脸辨识系统进行安检,以辨识潜在的危险人物。
出于安全考虑,两所大学的研究人员已将研究结果递送给自己地区的运输安全管理局(TSA),并建议 TSA 考虑未来安检时,检查乘客身上看似普通的物品,比如眼镜和珠宝等。因为这些小玩意儿可用来当作欺骗脸部辨识系统的工具。
“随着社会对脸部辨识技术的依赖越来越强,我们有时会忘记它可能失败。在安全性要求高的场合部署深度神经网络,我们需要更理解如何让人脸辨识在恶意干扰前变得更强大。”研究人员在论文中写道。
论文最近发表在 arxiv.org,题目是《对抗性生成网络:对最先进人脸辨识技术的神经网络进行攻击》。
(本文由 36Kr 授权转载;首图来源:shutterstock)
▼
特别声明 本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。