反击 AI!新工具帮艺术家“毒害”训练数据
▼
生成式 AI 普及提升企业效率和降低成本,不过对艺术家可是冲击生计。为了反击,有研究开发出污染训练数据的工具,让艺术家作品加入这些“毒素”对抗。
名为“Nightshade”的工具由芝加哥大学电脑科学教授 Ben Zhao 领导开发,可让艺术家数位作品档案加入特别设定的像素,肉眼难发现,不过如果用来 AI 训练,就会污染数据,让 AI 无法有效辨识内容,如狗图加入特别像素后,AI 会以为是猫。Nightshade 数据污染技术难防御之处,在 AI 模型开发人员需找出并剔除任何包含特殊像素的图片,因肉眼辨识不易,数据爬取工具也难检测,要预防极为困难。
研究员承认,结果可能用于恶意目的,但希望帮助艺术家从 AI 公司手中夺回创作权,透过强大威慑力对抗不尊重艺术家版权和智慧财产权的 AI 公司。
- Meet Nightshade, the new tool allowing artists to ‘poison’ AI models with corrupted training data
(本文由 Unwire Pro 授权转载;首图来源:Image by Freepik)
延伸阅读:
- AI 产图掀起图片攻击高峰,MIT 开发能干扰恶意 AI 的技术 PhotoGuard
- Google Cloud 与 DeepMind 合作开发 AI 产生浮水印
▼
特别声明 本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。