仅需 7 张照片,任何人都能“无中生你”

仅需 7 张照片,任何人都能“无中生你”

下图是位小学男老师光上身在学校教室自拍。如果这是真的照片,这位名叫 John 的男性很可能被学校直接开除。

仅需 7 张照片,任何人都能“无中生你” AI与大数据 图2张

但好在John是Arts Technica为了人工智慧社交图片实验虚构的人物。John人物设定是普通小学老师,和大部分人一样,过去12年John喜欢在Facebook上传工作纪录、家庭生活、假期照片等。

Arts Technica团队选取7张有John的照片,再使用最近很红的Stable DiffusionGoogle研究院Dreambooth两样AIGC工具,在社群媒体产生真假难辨的两个John。

John从普通、喜欢分享日常生活的英文老师,一下变成喜欢在教室、公众场所脱衣自拍的“危险分子”,一下又变成喜欢穿各种奇装异服的怪咖。翻看照片,每一张似乎都不是John,却有John的脸。现在借助各种免费AIGC工具,John的经历可能会常发生在普通人身上。

AIGC遇上真人

Arts Technica表示,一开始计划实验时,是征集愿意分享社群媒体照片的志愿者,但由于产生照片太真实、潜在危险太大,故放弃使用真人照,选择先用AI产生虚拟人物John。

实验结果让他们感觉到,目前技术环境每个普通人都处于潜在危险中。过程非常简单:从社群媒体拿到7张有清楚脸部的照片,再使用网络开源免费Stable Diffusion及Dreambooth合成程式,就能输入描述文字,产生各种这个人的图片。如网友用马斯克公开照训练,产生各种图片。

仅需 7 张照片,任何人都能“无中生你” AI与大数据 图3张

(Source:Reddit)

一些人也用维基百科联合创办人Jimmy Wales的公开照片训练,把温文儒雅的企业家变成运动健美先生。

仅需 7 张照片,任何人都能“无中生你” AI与大数据 图4张

先快速回顾一下Stable Diffusion和Dreambooth功能。Stable Diffusion是文字转图片模型,只花几秒就能产生比同类技术解析度、清晰度更高,更具真实性或艺术性的图片。和同类型AI产生图片相比,Stable Diffusion结果更写实。

此外,Stable Diffusion还有重要特点就是完全免费,所有代码都在GitHub公开,任何人都能用。正是“写实”和“开源”两个特性,让它在DALL‧E、Imagen等封闭及半封闭同类产品中“杀”出一条路。

Dreambooth则是来自Google AI实验室的从文本到图像“个性化”(可适应使用者特定图像需求)扩散模型,特点是只需几张(通常 3~5 张)指定物体照片和相关名词(如狗)输入,即可透过文字描述让指定物体出现在使用者想产生的场景。

如输入汽车图片,就可以下指令毫不费力改变它的颜色。输入松狮犬照片,可保留脸部特征同时变成熊、猫熊、狮子等,也可帮它穿各种衣服置身不同场景。

仅需 7 张照片,任何人都能“无中生你” AI与大数据 图5张

仅需 7 张照片,任何人都能“无中生你” AI与大数据 图6张

(Source:DreamBooth)

本来Stable Diffusion聚焦文字产生创意图片,Dreambooth则是有条件限制改造图片,两个工具并没有直接交集,奈何广大网友想像力和行动力都太强大,将两个开源产品结合,很快就做出兼具Stable Diffusion和Dreambooth功能的新工具。

你可用Dreambooth将几张免费图片当作训练图,产生目标后,再结合Stable Diffusion强大的文字转化功能,就可让指定目标以想要形式出现。

娱乐之外,也打开了潘朵拉盒子

新玩法出现后,网友就像发现新内地,纷纷尝试改造自己的照片。有人化身为西部牛仔、有人走进中世纪油画、有人变成铁血战士等。同时各种关于教普通人如何使用Stable Diffusion+Dreambooth工具的教程影片、文章也开始出现。

仅需 7 张照片,任何人都能“无中生你” AI与大数据 图7张

(Source:James Cunliffe)

当大家都开心PO出自己的杰作,大夸有趣同时,也有很多人关注技术背后的巨大风险。相较讨论多次的Deepfake技术,AIGC类工具让伪造从换脸直接进化到无中生有,也就是说,任何人一句话就可凭空“变出”你。此外“伪造”技术的门槛也更低,跟着YouTube影片学10分钟,没有技术背景的小白也能轻松掌握。

据统计,全世界超过40亿人会用社群媒体,如果你曾在社群媒体上传照片,一旦有人动机不良,很容易就能用这些照造假和滥用,最后可能是暴力照、不雅照、侮辱照,非常容易拿来栽赃嫁祸、校园霸凌、造谣伤害等。

从Stable Diffusion产生图片看,仔细观察还是能分辨人物真假,但问题在近几年AIGC技术进步非常迅速,人们或许很快就无法用肉眼分辨产生照和真实照的差别了。

▲ 加强版Stable Diffusion图。

即使是经不起推敲的照片,但现在负面资讯的破坏力相当惊人。如文章开头的John,有人看到他在教室里或其他不雅照时,无论真假先抓再说,但仅是怀疑或谣言,就能毁掉John的声誉和事业。就像丹麦电影〈狩猎〉,即使最后证明小女孩指控男老师猥亵都是编造的,但传言造成的恶意依然在男老师生活如影随形。

尝试用“魔法打败魔法”

开发人员早意识到AIGC可能的危害。当Google宣布推出Imagen、Dreambooth时,解释文件都避免使用真人照,而是用物品和可爱动物图举例说明。

不仅Google,DALL‧E等同类工具也无不如此。麻省理工评论曾强烈质疑这种转移大众注意力的手法:“我们只看到各种可爱图,看不到任何仇恨刻板印象、种族主义、暴力、性别歧视。但即使不说,我们也清楚的知道它们就在那里。”

针对这问题,很多平台也尝试用各种方法解决。OpenAI和Google等解决办法是将工具关入笼子,仅开放少数受信任使用者使用;Stability AI最新2.0版训练资料库删除大部分含不良讯息的数据,同时软件许可协定明确规定不允许创建人物图像。

但政策性规定毕竟指标不治本,近期Stable Diffusion等平台也尝试使用技术方法解决问题,包括“不可见浮水印”,人眼看不到,系统却可辨识图片真假,同时保护编辑和再生。

此外训练源头──原始图片保护,11月MIT研究员宣布开发专门针对AI照片编辑的PhotoGuard技术,阻止AI使用某些图像训练。如同样肉眼看不出差别的照片,使用PhotoGuard后,AI便无法提取到够多有效资讯。

仅需 7 张照片,任何人都能“无中生你” AI与大数据 图8张

(Source:Gradient Science)

最近一两年AIGC技术突飞猛进,大批图像产生工具和ChatGPT爆红,让大家意识到老生常谈的人工智慧时代似乎近在眼前。不久前Stable Diffusion研究人员表示,Stable Diffusion很可能一年内就能登上智慧手机,很多同类工具也着手用更轻量设备训练模型,如ChatGPT各种外挂程式颇受使用者欢迎。人们可能很快就会看到,人工智慧推动的创意产出未来几年爆炸式增长。

仅需 7 张照片,任何人都能“无中生你” AI与大数据 图9张

但随着AIGC走向大众化、平民化,深度合成内容制作的技术门槛越来越低,普通人仅需少量照片、音讯、影像、文本等数据,就能模糊资讯真实和虚假的边界。 还未推出相关法律规范下,技术一旦遭滥用,将会给个人、企业造成巨大风险与危害。

自从今年AI绘画类工具爆红,很多人目光放在AI颠覆艺术创作,但AI不仅改变创作模式,可能也对社会秩序发起挑战。有条件限制AI能力,可能是让AIGC改变我们生活前,必须先解决的问题。

  • Thanks to AI, it’s probably time to take your photos off the Internet

(本文由 品玩 授权转载;首图来源:shutterstock)

延伸阅读:

  • 大神微调 Stable Diffusion,就能打造宝可梦新世界
  • 人类忙着内耗竞争时,AI 已完成近年最大进化

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。