美国国会讨论 Deepfake 隐藏风险对应方式

美国国会讨论 Deepfake 隐藏风险对应方式

Deepfake 人工智慧“换脸”技术已不是新鲜事,不过随着技术越来越进步,要达到这效果的门槛变得更低,除色X影片外,如果有图谋不轨的人利用 Deepfake 制作假新闻加以传播,则能有效操控舆论。美国国会最近就针对这危机讨论,寻求解决办法。

美国国会的情报委员会最近开会与 AI 专家讨论对付 Deepfake 技术的方式,这个问题如果不处理,明年即将举行的美国XX大选,就有机会利用为操控舆论的工具,让选民暴露于假资讯中。上次美国XX大选曾出现外国大规模操控舆论的情况,这次也需要严防类似事件发生。长远而言这样也会导致资讯不被信任。外交政策研究所研究员 Clint Watts 告诉委员会,“如果一个资讯消费者不知道该相信什么,他们不能从虚构内容得知事实,那么他们可能相信一切,或不相信任何东西。如果他们什么都不相信,那就会导致长期冷漠,这对美国具破坏性。”

目前各范畴已开展研究工作打击 Deepfake。人工智慧研究所所长 David Doermann 博士为去年 DARPA 媒体取证团队的负责人,他和研究人员开始透过关注不规则眼球运动和 Allen Institute for Artificial Intelligence 合作,使用深度检测演算法 Grover 侦测 Deepfake 的 AI 系统,声称准确率达 92%。委员会呼吁科技公司应该致力探索在资讯平台阻止 Deepfake 内容流通的方法,竞选团队也不应使用这技术宣传。未来他们将考虑更多主动式预防,希望可防范未然。

  • U.S. Congress targets deepfakes ahead of 2020 election

(本文由 Unwire Pro 授权转载;首图来源:pixabay)

延伸阅读:

  • 修图鼻祖 Adobe 写了个演算法,能找出人像的“PS 痕迹”
  • 看过蒙娜丽莎开口说话吗?三星开发新 AI 模型,只需几张图片便能造假成动态影片
  • 深伪影片流窜,恐加剧假新闻招致混乱

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。