欧巴马遭强行“洗白”后,AI 艺术创作又犯了种族偏见大忌
▼
你能辨识哪幅艺术作品是 AI 创作的吗?
▲你能辨识哪幅艺术作品是 AI 创作的吗?(Source:Ahmed Elgammal)
即使最有经验的艺术家,有时也无法区分 AI 作品与人类作品。巴塞尔艺术展时,有 53% 观众认为这些作品全部都是人类创作的。
事实上它们全部来自罗格斯大学( Rutgers University )艺术与人工智慧实验室团队创建的神经网络 AI 。
AI 已学会辨识经典艺术作品的创作风格和手法,并融汇贯通创作出全新作品。以上作品的创作素材来自 15~20 世纪 1 千多名艺术家 8 万多幅画作,涉及印象派绘画、立体派绘画,以及文艺复兴早期绘画等不同风格。
凭着快速高效且丝毫不逊于人类的创作能力,AI 广泛应用于艺术创作领域。但随着 AI 作品日益增多,我们不得不思考一个问题:称为“黑匣子”的艺术创作过程中,AI 演算法是否有偏见?
近日,美国 Fujitsu AI Lab 研究人员发表最新论文:《艺术史视角下的生成艺术偏见》。明确指出:AI 艺术创作过程没有考虑到社会伦理的影响,表现出明显的偏见。
AI 艺术创作背后的三大偏见
研究人员透过因果模型 DAG,测试现有 AI 艺术创作工具和作品,以发现是否有偏见。
为了确保研究准确性,他们调查学术论文的 AI 模型、线上 AI 平台及相关应用程序,并选择艺术风格(文艺复兴艺术、印象主义、表现主义、后印象主义和浪漫主义)、流派(风景画、肖像画、战争画、素描和插图)、材料(木版画、雕刻、绘画)及艺术家(杭特、玛丽卡萨特、文森梵谷、古斯塔夫多雷、吉诺塞维里尼)等多类型 AI 艺术作品一一评估。
某项测试中,他们发现 AI 生成艺术工具 Abacus 有明显的性别偏见,如皮耶罗迪科西莫(Piero di Cosimo)画作《一个年轻人的肖像》是一位留着长发的年轻男性(下图 iii),却辨识成女性(iii-iv)。
▲ (i) 是拉斐尔的男人肖像、(iii) 是科西莫的年轻人肖像。(ii) 和 (iv):分别是 (i) 和 (iii) 性别转换。长发的年轻人被 Abacus 判别为女性。(Source:arXiv.org,下同)
另外,还有些 AI 工具可能涉及种族主义偏见。如 GoArt,允许用户以其他艺术家的风格重新绘制图片。表现主义创作中,GoArt 将克莱曼甸杭特(Clementine Hunter)的黑人女族长脸从黑色变成红色。
而德赛德里奥达塞蒂格纳诺(Desiderio da Settignano)在文艺复兴时期创作的白色雕塑《乔维内托》,在表现主义转换时,脸部颜色没有变成红色。
类似 GoArt 的 AI 工具 Deepart 艺术风格辨识也有明显缺陷。如下图中间《玛丽埃里森小姐》(现实主义风格)转换成左图,并没有呈现出表现主义的艺术特点。
右图为表现主义作品:恩斯特路德维希克尔希纳(Ernst Ludwig Kirchner)的《尔纳》。
无论 AI 绘画还是写作或创作音乐,基本原理都是先经由庞大资料库训练,学习相关知识,然后再经过 AI 模型完成训练和输出。
研究人员认为,以上输出之所以有偏见,根本原因应归咎于训练资料库不平衡。主要体现在两点:一是资料库收集受人为偏好影响。如他们发现 AI 应用程序 Portr AI ts,使用 4.5 万幅文艺复兴时期的肖像画大部分是白人。
二是资料库标签不一致,或模型学习标签注释资料库的过程产生偏差。不同的注释者有不同偏好、文化和信仰,这些都可能反映到创建的资料库标签。
最后研究人员也警告,AI 研究人员和实践者检查、设计及应用过程应充分考虑社会政Z背景因素,透过错误建模或忽略创建资料库的某些细节,AI 创作艺术可能会引起人们对社会、文化和政Z方面的误解,或引起不必要的争议和冲突。
目前无论业界还是学术界,对 AI 演算法可能有的偏见已引起广泛注意,因已多次挑起种族主义风波。
欧巴马被洗白,AI 种族偏见惹争议
近几年随着研究不断突破,电脑视觉技术发展突飞猛进。
因此不仅艺术领域,AI 在更广泛的图像辨识与合成均有潜在的偏见风险,尤其涉及人脸图像。如 2020 年上半,杜克大学出品的 PLUSE 演算法便被指责有种族歧视,在社群平台引起轩然大波。
起因是 PULSE 将前美国前XX巴拉克欧巴马(Barack Obama)图像变成白人。
(Source:Chicken3gg)
PULSE 是新型超解析度演算法,功能是将低解析度图像转为高清图像(生成逼真且不存在的人),但输出结果产生明显的肤色偏好。
不仅是欧巴马,网友测试中,美国国会议员亚历山大奥卡西奥科尔特斯(Lexandria-Ocasio Cortez)、女星刘玉玲(Lucy Liu)等人的肤色也被 PULSE 变成白色。
▲ Cortez。(Source:囧Robert Osazuwa Ness囧,下同)
▲ 刘玉玲。
因此不少网友认为,AI 有根深蒂固的种族偏见。
当时 PULSE 创建者也承认,演算法按比例放大像素化图像时更可能生成具白种人特征的人脸。而且他说:“这种偏见很可能是 StyleGAN 从资料库继承的。”
其实这问题在机器学习极普遍,主因是训练 AI 的资料库通常是在人口统计学占优势的白人。如果资料库不出现或较少出现黑人,就会影响 AI 模型性能,导致输出结果是白人的机率更高。除此案例外,AI 脸部辨识演算法也多次引发种族争议。
若资料库有偏差,必然会导致演算法偏见,那如何才能有效改善资料库?
如何避免资料库偏差?
资料库是 AI 研究的基础,如何修正和完整资料库一直是研究人员关注的重点。
除了频频引发争议的种族偏差、性别偏差,资料库在研究过程也有测量偏差、排除偏差及关联偏差等一系列问题。不过近几年针对如何解决资料库偏见问题,研究人员也开发出应对措施,如少量标注,提高模型泛化能力,减少人为标注带来的偏差等。
总体来说,防止资料库偏差是持续过程,有时很难知道资料库或模型何时出现偏差,且不同资料库也有不同标准。不过相关研究人员也总结以下通用准则,帮助我们及早发现和减少偏差:
- 注意一般用例和潜在异常值,确保资料科学家和标签团队多元化。
- 为资料库标签创建黄金标准,确保测量团队注释的准确性和一致性。
- 对可能出现资料库偏差的项目,使用多次注释。如情感分析、内容审核和意图辨识。
- 收集更多与敏感群体相关的训练资料库解决不公平的问题。
- Google、IBM 和微软等均发表过工具和指南,可用来分析不同资料库类型的偏差。
- Who gets the credit when AI makes art?
- What a machine learning tool that turns Obama white can (and can’t) tell us about AI bias
- Researchers find race, gender, and style biases in art-generating AI systems
(本文由 雷锋网 授权转载;首图来源:shutterstock)
▼
特别声明 本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。