马斯克果然不会放过,也来踩又出包的 Google AI 模型一脚
▼
Google 屋漏偏逢连夜雨,前阵子发表的大模型 Gemini 1.5,实力强劲但无人问津,被 OpenAI 影片产生模型 Sora 抢光风头,最近又遇上美国社会很敏感的种族歧视问题,好心做坏事,惹恼站在鄙视链顶端的白人。
多样化算你认真,过度多样化惹祸上身
如果几天前用过 Gemini 产生历史人物图片,使用者会看到仿佛平行时空,违背“戏说不是胡说”精神,简单知识都变复杂了。西元 8~11 世纪的维京人不是金发碧眼、高大魁梧的影视经典形象,虽然肤色变黑,穿着清凉,坚毅眼神依然展现出战士的强悍。
1820 年代的德国夫妇,人种构成十分丰富,可以是美国原住民男性和印度女性,也可以是黑人男性和亚洲女性。
AI 瞎编剧情也讲逻辑,后代继续他们的故事,过了百年,1943 年的德军人队又能看见黑人男性和亚洲女性的身影。
王侯将相跨越时间的长河,越过陆地和大洋,美国开国元勋、中世纪英格兰国王,都可能是黑人喔。
其他职业也一视同仁,AI 忽视天主教女性不能担任神职,教皇变成印度女性。尽管美国第一位女性参议员出现在 1922 年且是白人,但 AI 笔下的 1800 年代已经很欢迎女性黑人及原住民从政。
都说历史是任人打扮的小姑娘,但这次 AI 把人种完全换了。一向优越的白人气呼呼,终于人种、肤色和外貌都尝到受歧视的滋味。而当探索越发深入,不仅历史人物,现代社会在 AI 眼里也是另一副模样,Google 前工程师 @debarghya_das 发现,美国、英国、德国、瑞典、芬兰、澳洲女性肤色都可能偏黑。
他痛心疾首:“让 Google Gemini 承认白人存在好像非常困难。”更让网友生气的是,产生乌干达等国女性时,Gemini 反应很快,做事俐落,轮到白人就可能拒绝,甚至开始说教,回答这类要求会强化种族刻板印象。
计算机工程师 @IMAO_ 脑洞大开实验,不局限人类,想知道 Gemini 眼前的黑是什么黑,白是什么白。结果很有意思,演算法似乎只针对白人,产生白熊没问题,证明“white”不是 AI 敏感词;产生非洲祖鲁人也没问题,尽管提示词强调“多样化”,但大家长得还是差不多。
漏洞出现在奇幻生物,精灵和侏儒都是白人,但吸血鬼和仙女“多样化”,看来 Gemini 道行不深,还得与时俱进。
不过他的游戏很快就结束。Google 承认历史图片确实有问题,并暂停 Gemini 人像产生功能,很快会调整好。Google 顺便解释立场,产生多样化人物本来是件好事,因为 AI 工具就是给人用的,只是现在方向有点偏。
虽然 Google 爽快背锅,但没有明确回应出错历史图片到底有多少,以及为什么会有“过度多样化”问题。不买帐的网友牙尖嘴利:“Gemini 一定是用迪士尼公主和 Netflix 影片训练的”、“Gemini 其实想告诉你,如果你是黑人或亚洲人,你会长成什么模样”。
然而,种族歧视本来就是容易炎上的题材,所以也有人怀疑,某些图片是恶意 P 图,或用提示词引导。在社群平台骂声最响的,确实也是政Z立场明确人士,不免有点阴谋论的味道。
I’m glad that Google overplayed their hand with their AI image generation, as it made their insane racist, anti-civilizational programming clear to all
— Elon Musk (@elonmusk) February 23, 2024
马斯克一直是爱看热闹乡民,马上跟风批评 Google 过度多样化,说问题不只 Gemini,还有 Google 搜寻,顺便帮自己两周后发表的 AI 产品 Grok 打广告:“不顾批评、严格追求真理从未如此重要。”上次马斯克也是这么做,呼吁暂停 GPT-4 进化后,买了一万片 GPU 加入 AI 大战。
比马斯克言论更吸引人的,可能是网友趁乱做的哏图。
网络差异,可能比现实更极端
Google 究竟为什么“多样化”走偏?Hugging Face 首席道德科学家 Margaret Mitchel 分析,Google 可能各种干预 AI。一是 Google 可能幕后帮提示词增加“多样化”,如将“厨师肖像”变成“土着厨师肖像”;二是 Google 可能优先显示“多样化”图片,假设 Gemini 每个提示词产生十张图片但只显示四张,使用者更可能看到排在前面的“多样化”图像。
干预过度恰恰说明,模型远没有我们想的灵活聪明。Hugging Face 研究员 Sasha Luccioni 认为,AI 模型没有时间概念,所以“多样性”校准放到所有图片,历史图尤其容易出错。其实当年没没无名的 OpenAI,AI 绘画工具 DALLE 2 也干过类似的事。
2022 年 7 月,OpenAI 部落格说,如果使用者要求产生某人物图,但没有指定种族或性别,如消防员,DALLE 2 会在“系统层级”应用新技术,产生“更准确反映世界人口多样性”图片。
OpenAI 举例对比图,同提示词“A photo of a CEO”(首席执行长照片),用了新技术后,多样性明显增加。原来结果是白人男性,改进后亚洲男性、黑人女性也有成为 CEO 的资格,但运筹帷幄的表情和姿势就像复制贴上。
不论哪种解决方案,都是后期亡羊补牢,更大问题还是,资料仍有偏见。
供 AI 公司训练的 LAION 等资料库,主要抓取美国、欧洲等网络资料,较少关注印度、内地等人口众多的地区。所以“有魅力的人”更可能是金发碧眼、皮肤白身材瘦的欧洲人,“幸福的家庭”或许指白人夫妇抱着孩子在修剪整齐草坪上微笑。
另外,为了让图搜寻时排名往前,很多资料库可能还有大量“有毒”标签,充斥色X暴力。种种原因导致人们观念进步后,网络图片人与人的差异可能比现实极端,非洲人原始,欧洲人世俗,高层是男性,囚犯是黑人……
为资料库“解毒”的努力当然进行中,如过滤掉“坏”内容,但过滤代表牵一发动全身,删除色X内容,可能导致某些地区内容更多或更少,又造成某种偏差。简而言之,完美不可能,现实社会又何尝没有偏见,只能尽量做到不让边缘群体还是边缘,降低弱势群体的刻板印象。
逃避虽可耻但有用
2015 年 Google 机器学习专案也陷入类似争议。某软件工程师批评 Google Photos 将非裔美华人或肤色较深人种标记成大猩猩。 这丑闻也成为“演算法种族主义”典型例子,影响至今。两名前 Google 员工解释,这么大错误是因资料库没有足够黑人照片,且功能亮相前没有足够内测。
时至今日,计算机视觉不可同日而语,但科技巨头仍担心重蹈覆辙,Google、苹果等相机应用,辨识多数灵长类动物仍然不够灵敏或刻意回避。防止错误再发生的最好方式,似乎只是把问题关进小黑屋,而非修补。教训确实重新上演,2021 年 Facebook 为 AI 将黑人贴上“灵长类动物”标签道歉。这些才是有色人种或网络弱势群体较熟悉的状况。
2023 年 10 月,牛津大学研究员要求 Midjourney 产生“治疗白人儿童的非洲黑人医生”图片,扭转“白人救世主”的传统印象。研究员要求非常明确,然而产生 350 多张图,22 张医生是白人,黑人医生旁边总有长颈鹿、大象等非洲野生动物,“你看不到非洲有现代感”。
一边是司空见惯的歧视,一边是 Google 歪曲事实营造假平等感,目前没有简单答案,如何达成人人满意的平衡,恐怕比走钢索还难,就拿产生人像来说,如果是用 AI 产生某段历史时期,或许反映真实更好,尽管看起来没那么“多样化”。
但如果输入提示词“一名美国女性”,理应输出更“多样化”结果,但难点在 AI 如何有限几张图就能反映现实,或至少不扭曲现实?哪怕同是白人或黑人,年龄、身材、头发等特征也不相同,所有人都有独特经历和观点,却又生活在同个社会。
网友用 Gemini 产生芬兰女性,四张图只有一张是黑人女性,开玩笑说:“75%,得分 C。”也有人追问 Google 模型改善后,是否“25% 时间产生白人,而非 5%”。很多问题并非技术能解决,有时是观念问题,这也是 Yann LeCun 等 AI 名人支持开源的部分原因,由用户和组织自行控制,根据意愿设立或不设立保护措施。
这次 Google 闹剧有人保持冷静,表示先练习怎么写提示词,与其笼统说白人黑人,不如写“斯堪地那维亚女性、肖像拍摄、演播室照明”,要求越明确,结果也越精准,要求越广泛,结果当然越笼统。
去年 7 月有过类似的事,麻省理工亚裔学生想用 AI 工具 Playground AI 让头像看起来更专业,结果变成白人,肤色更浅,眼睛更蓝,她发文到 X 后,引发很多讨论。Playground AI 创办人回应,模型无法对这种指令有效产生图片,所以输出更通用的结果。提示词“专业的 Linkedin 照片”改成“工作室背景、锐利灯光”,结果可能更好,但确实显示很多 AI 工具既没教用户怎么写提示词,资料库又以白人为中心。
任何技术都有犯错的可能和改善空间,却未必有答案。当 AI 还不够聪明,只能人类自己进步。
(本文由 爱范儿 授权转载;首图来源:shutterstock)
延伸阅读:
- Google Bard 整合 LLM Gemini 升级,强化回应内容与生成能力
- Gogole 下一代 Gemini 1.5 模型发表,上下文长度可达 1,000K token
▼
特别声明 本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。