马斯克果然不会放过,也来踩又出包的 Google AI 模型一脚

马斯克果然不会放过,也来踩又出包的 Google AI 模型一脚

Google 屋漏偏逢连夜雨,前阵子发表的大模型 Gemini 1.5,实力强劲但无人问津,被 OpenAI 影片产生模型 Sora 抢光风头,最近又遇上美国社会很敏感的种族歧视问题,好心做坏事,惹恼站在鄙视链顶端的白人。

多样化算你认真,过度多样化惹祸上身

如果几天前用过 Gemini 产生历史人物图片,使用者会看到仿佛平行时空,违背“戏说不是胡说”精神,简单知识都变复杂了。西元 8~11 世纪的维京人不是金发碧眼、高大魁梧的影视经典形象,虽然肤色变黑,穿着清凉,坚毅眼神依然展现出战士的强悍。

马斯克果然不会放过,也来踩又出包的 Google AI 模型一脚 AI与大数据 图2张

1820 年代的德国夫妇,人种构成十分丰富,可以是美国原住民男性和印度女性,也可以是黑人男性和亚洲女性。

马斯克果然不会放过,也来踩又出包的 Google AI 模型一脚 AI与大数据 图3张

AI 瞎编剧情也讲逻辑,后代继续他们的故事,过了百年,1943 年的德军人队又能看见黑人男性和亚洲女性的身影。

马斯克果然不会放过,也来踩又出包的 Google AI 模型一脚 AI与大数据 图4张

王侯将相跨越时间的长河,越过陆地和大洋,美国开国元勋、中世纪英格兰国王,都可能是黑人喔。

马斯克果然不会放过,也来踩又出包的 Google AI 模型一脚 AI与大数据 图5张

其他职业也一视同仁,AI 忽视天主教女性不能担任神职,教皇变成印度女性。尽管美国第一位女性参议员出现在 1922 年且是白人,但 AI 笔下的 1800 年代已经很欢迎女性黑人及原住民从政。

马斯克果然不会放过,也来踩又出包的 Google AI 模型一脚 AI与大数据 图6张

都说历史是任人打扮的小姑娘,但这次 AI 把人种完全换了。一向优越的白人气呼呼,终于人种、肤色和外貌都尝到受歧视的滋味。而当探索越发深入,不仅历史人物,现代社会在 AI 眼里也是另一副模样,Google 前工程师 @debarghya_das 发现,美国、英国、德国、瑞典、芬兰、澳洲女性肤色都可能偏黑。

马斯克果然不会放过,也来踩又出包的 Google AI 模型一脚 AI与大数据 图7张

他痛心疾首:“让 Google Gemini 承认白人存在好像非常困难。”更让网友生气的是,产生乌干达等国女性时,Gemini 反应很快,做事俐落,轮到白人就可能拒绝,甚至开始说教,回答这类要求会强化种族刻板印象。

马斯克果然不会放过,也来踩又出包的 Google AI 模型一脚 AI与大数据 图8张

计算机工程师 @IMAO_ 脑洞大开实验,不局限人类,想知道 Gemini 眼前的黑是什么黑,白是什么白。结果很有意思,演算法似乎只针对白人,产生白熊没问题,证明“white”不是 AI 敏感词;产生非洲祖鲁人也没问题,尽管提示词强调“多样化”,但大家长得还是差不多。

马斯克果然不会放过,也来踩又出包的 Google AI 模型一脚 AI与大数据 图9张

漏洞出现在奇幻生物,精灵和侏儒都是白人,但吸血鬼和仙女“多样化”,看来 Gemini 道行不深,还得与时俱进。

马斯克果然不会放过,也来踩又出包的 Google AI 模型一脚 AI与大数据 图10张

不过他的游戏很快就结束。Google 承认历史图片确实有问题,并暂停 Gemini 人像产生功能,很快会调整好。Google 顺便解释立场,产生多样化人物本来是件好事,因为 AI 工具就是给人用的,只是现在方向有点偏。

虽然 Google 爽快背锅,但没有明确回应出错历史图片到底有多少,以及为什么会有“过度多样化”问题。不买帐的网友牙尖嘴利:“Gemini 一定是用迪士尼公主和 Netflix 影片训练的”、“Gemini 其实想告诉你,如果你是黑人或亚洲人,你会长成什么模样”。

然而,种族歧视本来就是容易炎上的题材,所以也有人怀疑,某些图片是恶意 P 图,或用提示词引导。在社群平台骂声最响的,确实也是政Z立场明确人士,不免有点阴谋论的味道。

马斯克一直是爱看热闹乡民,马上跟风批评 Google 过度多样化,说问题不只 Gemini,还有 Google 搜寻,顺便帮自己两周后发表的 AI 产品 Grok 打广告:“不顾批评、严格追求真理从未如此重要。”上次马斯克也是这么做,呼吁暂停 GPT-4 进化后,买了一万片 GPU 加入 AI 大战。

比马斯克言论更吸引人的,可能是网友趁乱做的哏图。

马斯克果然不会放过,也来踩又出包的 Google AI 模型一脚 AI与大数据 图11张

网络差异,可能比现实更极端

Google 究竟为什么“多样化”走偏?Hugging Face 首席道德科学家 Margaret Mitchel 分析,Google 可能各种干预 AI。一是 Google 可能幕后帮提示词增加“多样化”,如将“厨师肖像”变成“土着厨师肖像”;二是 Google 可能优先显示“多样化”图片,假设 Gemini 每个提示词产生十张图片但只显示四张,使用者更可能看到排在前面的“多样化”图像。

马斯克果然不会放过,也来踩又出包的 Google AI 模型一脚 AI与大数据 图12张

干预过度恰恰说明,模型远没有我们想的灵活聪明。Hugging Face 研究员 Sasha Luccioni 认为,AI 模型没有时间概念,所以“多样性”校准放到所有图片,历史图尤其容易出错。其实当年没没无名的 OpenAI,AI 绘画工具 DALLE 2 也干过类似的事。

2022 年 7 月,OpenAI 部落格说,如果使用者要求产生某人物图,但没有指定种族或性别,如消防员,DALLE 2 会在“系统层级”应用新技术,产生“更准确反映世界人口多样性”图片。

OpenAI 举例对比图,同提示词“A photo of a CEO”(首席执行长照片),用了新技术后,多样性明显增加。原来结果是白人男性,改进后亚洲男性、黑人女性也有成为 CEO 的资格,但运筹帷幄的表情和姿势就像复制贴上。

不论哪种解决方案,都是后期亡羊补牢,更大问题还是,资料仍有偏见。

供 AI 公司训练的 LAION 等资料库,主要抓取美国、欧洲等网络资料,较少关注印度、内地等人口众多的地区。所以“有魅力的人”更可能是金发碧眼、皮肤白身材瘦的欧洲人,“幸福的家庭”或许指白人夫妇抱着孩子在修剪整齐草坪上微笑。

另外,为了让图搜寻时排名往前,很多资料库可能还有大量“有毒”标签,充斥色X暴力。种种原因导致人们观念进步后,网络图片人与人的差异可能比现实极端,非洲人原始,欧洲人世俗,高层是男性,囚犯是黑人……

为资料库“解毒”的努力当然进行中,如过滤掉“坏”内容,但过滤代表牵一发动全身,删除色X内容,可能导致某些地区内容更多或更少,又造成某种偏差。简而言之,完美不可能,现实社会又何尝没有偏见,只能尽量做到不让边缘群体还是边缘,降低弱势群体的刻板印象。

逃避虽可耻但有用

2015 年 Google 机器学习专案也陷入类似争议。某软件工程师批评 Google Photos 将非裔美华人或肤色较深人种标记成大猩猩。 这丑闻也成为“演算法种族主义”典型例子,影响至今。两名前 Google 员工解释,这么大错误是因资料库没有足够黑人照片,且功能亮相前没有足够内测。

时至今日,计算机视觉不可同日而语,但科技巨头仍担心重蹈覆辙,Google、苹果等相机应用,辨识多数灵长类动物仍然不够灵敏或刻意回避。防止错误再发生的最好方式,似乎只是把问题关进小黑屋,而非修补。教训确实重新上演,2021 年 Facebook 为 AI 将黑人贴上“灵长类动物”标签道歉。这些才是有色人种或网络弱势群体较熟悉的状况。

2023 年 10 月,牛津大学研究员要求 Midjourney 产生“治疗白人儿童的非洲黑人医生”图片,扭转“白人救世主”的传统印象。研究员要求非常明确,然而产生 350 多张图,22 张医生是白人,黑人医生旁边总有长颈鹿、大象等非洲野生动物,“你看不到非洲有现代感”。

马斯克果然不会放过,也来踩又出包的 Google AI 模型一脚 AI与大数据 图13张

一边是司空见惯的歧视,一边是 Google 歪曲事实营造假平等感,目前没有简单答案,如何达成人人满意的平衡,恐怕比走钢索还难,就拿产生人像来说,如果是用 AI 产生某段历史时期,或许反映真实更好,尽管看起来没那么“多样化”。

但如果输入提示词“一名美国女性”,理应输出更“多样化”结果,但难点在 AI 如何有限几张图就能反映现实,或至少不扭曲现实?哪怕同是白人或黑人,年龄、身材、头发等特征也不相同,所有人都有独特经历和观点,却又生活在同个社会。

网友用 Gemini 产生芬兰女性,四张图只有一张是黑人女性,开玩笑说:“75%,得分 C。”也有人追问 Google 模型改善后,是否“25% 时间产生白人,而非 5%”。很多问题并非技术能解决,有时是观念问题,这也是 Yann LeCun 等 AI 名人支持开源的部分原因,由用户和组织自行控制,根据意愿设立或不设立保护措施。

这次 Google 闹剧有人保持冷静,表示先练习怎么写提示词,与其笼统说白人黑人,不如写“斯堪地那维亚女性、肖像拍摄、演播室照明”,要求越明确,结果也越精准,要求越广泛,结果当然越笼统。

马斯克果然不会放过,也来踩又出包的 Google AI 模型一脚 AI与大数据 图14张

去年 7 月有过类似的事,麻省理工亚裔学生想用 AI 工具 Playground AI 让头像看起来更专业,结果变成白人,肤色更浅,眼睛更蓝,她发文到 X 后,引发很多讨论。Playground AI 创办人回应,模型无法对这种指令有效产生图片,所以输出更通用的结果。提示词“专业的 Linkedin 照片”改成“工作室背景、锐利灯光”,结果可能更好,但确实显示很多 AI 工具既没教用户怎么写提示词,资料库又以白人为中心。

任何技术都有犯错的可能和改善空间,却未必有答案。当 AI 还不够聪明,只能人类自己进步。

(本文由 爱范儿 授权转载;首图来源:shutterstock)

延伸阅读:

  • Google Bard 整合 LLM Gemini 升级,强化回应内容与生成能力
  • Gogole 下一代 Gemini 1.5 模型发表,上下文长度可达 1,000K token

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。