一张 AI 的“自画像”

一张 AI 的“自画像”

AI应该长什么样子?常见的答案不外乎:像机器人,像一组闪烁的LED灯,或像一组变幻莫测的波形。那么在 AI眼中,AI应该长什么样子?

直接方法大概是让AI画一张自画像。比如这张。

一张 AI 的“自画像” AI与大数据 图2张

这张图是IBM研究人员安排AI画的自画像,发表在1019日的《纽约时报》。

纽约时报9月下旬找上IBM研究院,希望他们帮忙想想如何用特殊方式让AI生出一幅艺术作品,以便用在 10 月的AI特辑。时间不多,也无法决定最后的效果,故决定让AI创作原创作品。而工作目标是高层次抽象──要展现AI的重要概念,创作一幅能展示这个概念的原创作品,且视觉风格还要与《纽约时报》相符。

“自画像”这件事对AI来说有点耐人寻味。毕竟,AI是看不见摸不着的资讯处理工具,它能分析路况转化成驾驶指令(自驾车)、能把影像讯号变成位置和机率汇出(影像辨识)、能把数位化后的连续波形讯号转换成离散的文字符号(语音辨识),但这些工作都不需要AI创造任何新事物,它只是根据训练过程学到的资料分析汇入、产生汇出而已。即便如今在影像和语义理解已有不小进步,也仍然很难想像如何让AI“思考自己看起来长什么样子”。

如今面对这幅作品,外行眼中有种老生常谈的味道,因为看起来只不过是(AI和人)手拉手动作的数位化涂鸦。但看过创作流程介绍之后,内行就会会心一笑──这还真是用深度学习时代的标准方法,把AI和人类的能力结合,让AI画了一幅自画像呢。

第一步:在AI中找到某个核心的视觉概念

  • 找到发表在《纽约时报》约 3 千篇关于AI的文章。
  • 用自然语言处理工具分析文章,找到与AI有关、有区分度、有语义概念的前 30 项。
  • 训练一个用于视觉辨识的神经网络,它会影像辨识这前 30 项概念。
  • 找到《纽约时报》所有直接说明或含有AI 意义的图片,用这个网络评分影像。
  • 评分前 10 名的影像,由参与项目的研究员、工程师、艺术家选出一张认为贴切的:一张人和机器人握手的画面。

第二步:创作一幅捕捉到AI概念的原创影像

  • 构建一个超过 1 千张影像组成的资料集,影像内容是人手和机械手。
  • 用资料集训练一个对抗性生成式网络(GAN),让它绘制一幅包含人手和机械手的新影像;这个过程耗费7个日夜。

第三步:以符合《纽约时报》的视觉风格呈现

  • 收集一些《纽约时报》旧封面图,训练一个影像风格转换网络。
  • 用这个网络对第二步绘制的人手和机械手影像自动风格转换,以便符合《纽约时报》封面的“视觉语言”。
  • 根据总体概念清晰度和艺术风格,选出一张最终影像──就是上图。

这是一个典型融合AI的计算能力和人类艺术创造、判断能力的流程,且也可以生成其他领域的艺术作品。

正与影像展示、创作过程一样,人类与AI的共同未来应当是携手互助,不是此消彼长、互相对抗。

  • AI and Human Creativity Go Hand in Hand

(本文由 雷锋网 授权转载;首图来源:shutterstock)

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。