影像版 Midjourney 又进化:一句话产生影像,Google 投资,网友大呼好莱坞已死!
▼
提到生成式 AI 大模型,文字领域有 ChatGPT,图像领域有 Midjourney 和 Stable Diffusion,那影片领域有什么?
很多人第一个会想到Runway公司的Gen-1。Gen-1是Runway 2月推出的(也是第一款)文字产生影像的AI大模型。不过几天前更新版Gen-2发表了。Gen-2从3月底开始小范围测试,当时发言人Kelsey Rondenet说Gen-2会在几周内开放,不过直到6月,这承诺才算兑现。
千呼万唤始出来的Gen-2,到底进化到哪了?
真正从零产生影像
发表Gen-1时Runway专门做网页讲解Gen-1怎么用,有五个功能:
- 输入一张图片当提示,让影像产生你想要的风格。
- 上传影片及提示词,产生想要的影片(如拉布拉多变成大麦町)。
- 输入图片或提示词,让3D建模影像草稿变完整。
- 上传随意影片,产生有故事感的片段(如随意摆放的书最后成为高楼大厦)。
- 原影像基础上,自由设定想要的风格(哪怕变出现实不存在的奇行种)。
发现了吗?Gen-1可用前提是要有支现成影片,Gen-1作用只等于原影片加上高级滤镜。到了Gen-2,才真正达成从零产生影片的梦想。从介绍看,Gen-2比Gen-1多了3个厉害功能:
- 文字到影片:只要输入提示词,就能产生影片。
- 文字和图片到影片:输入一张图片+提示词,就能让图片动起来。
- 图片到影片:只要输入一张图片,就能自动产生一段影片(如让云飘起来、水流人走)。
如果说Gen-1只能当成修改影片工具,那Gen-2几乎就能当成影片生产工具了──试想用文字产生几支影片,拼成一支就能讲个完整的故事……总之就是只能玩玩和能商用的差别。虽然目前Gen-2产生影片依然有细节模糊、形体扭曲等问题,且长度最多4秒,但可能是现在影片产生领域最厉害的AI工具了。
当然从Gen-2开始,代表Runway正式进入收费时代:Gen-1完全免费,Gen-2免费版功能有限(试用额度只有105秒,约等于26支4秒影片,且解析度低、有浮水印),用户每月付15美元(或144美元包年)才有完整功能。
Runway是啥来头?成立于2018年,一直研究怎么用AI提升影片制作效率,最有名事迹应是去年最红电影〈妈的多重宇宙〉,让人印象深刻的面条手还有石头对话等超现实场景都有用到Runway的技术。不过很多人可能忽略,之前爆出大丑闻的Stable Diffusion也和Runway关系密切。
Stable Diffusion(图像产生领域最热门的大模型之一)背后公司Stability AI雷爆了,媒体列出Stability AI罪状之一就是把Stable Diffusion的10亿程式码成果“据为己有”,公司充其量只是提供Stable Diffusion算力(也出钱)。
真正出力的是慕尼黑大学、海德堡大学及Runway。Stable Diffusion最早于CVPR 2022年中发表的论文出现,也就是说Runway是Stable Diffusion研发者之一。Runway去年还因发表Stable Diffusion v1.5被Stability AI抓着不放,但那次舆论最终站在Runway这边,是Runway“成名”前为数不多的八卦。
后来就像多数大模型开发公司,不再参与Stable Diffusion的Runway发表Gen-1后,发展速度就像坐上火箭,月初拿到Google投资,距离D轮1亿美元融资刚过一个月,累计融资至少2亿美元,成为大模型领域的明星。2021年12月对冲基金Coatue花3,500万美元投资Runway时,估值为2亿美元,一年后估值变成5亿美元,再过半年,估值又翻了3倍(保守有15亿美元)。
网友:好莱坞 is dead
Gen-2让不少网友兴奋,Runway推文下出现一些普通用户“求教程”的声音:
不过已有行动力强的用户试着用Gen-2产生影片,不少用户都在Runway推文留言交出4秒钟“作业”。尽管Runway只列出Gen-2主要功能,并没有教大家更多玩法,但聪明的网友都自己学着用Gen-2产生影片剪出短片。
如“Monster of the sea”(海怪)的48秒故事:天气晴朗、风平浪静的一天,一艘帆船悠闲行驶在海上,乘客惬意干杯喝酒,突然狂风大作,船员拿起望远镜往远处望,发现一只巨大的海怪出现,船随着海浪开始颠簸,甚至烧起来,大家纷纷弃船逃生。
“Monster of the sea” My 1st #Gen2 clip on @runwayml pic.twitter.com/ZaQlv96qdX
— MHU (@Sonnenstrom1) June 9, 2023
甚至有直接用ChatGPT写剧本,再用Gen-2产生影片说故事。还有用户拿Gen-2素材剪了一支1分钟的电影预告,最后加上坎城影展logo,如果影片品质好一点,都能以假乱真了。
This summer, in a theater near you!
ゴールデン・イーロン・マスク
GEN-2 by @runwayml#gen2 #text2video pic.twitter.com/ibt2mPch6C
— Toni Seldr (@toniseldr) June 8, 2023
不过品质差、时间太短确实成了Gen-2的槽点,且Android App问题,Gen-2和Gen-1一样没长进。当然更多用户还是对Runway很宽容。网友评价“虽然它很不完美,但有点可肯定,对整个娱乐影视产业有革命性的改变。”还有网友说“好莱坞已死,任何人都可拍出世界级电影。”
hollywoke is dead
anyone can make a world class movie— Kan Deegan (@KanDeegan) June 7, 2023
真能取代好莱坞吗?
虽能理解为何网友对Gen-2如此兴奋,因很明显假以时日,文字产生影片成熟,代表拍电影不再是好莱坞的专属权利,任何人都可拍电影。Runway并没有说Gen-2客群是谁,不过可从App及与影视工作室合作等猜到哪些人会用到Gen-2:专业制片公司、个人工作室及普通用户。
虽然Gen-2对普通用户很友善,但制片公司当然也会用Gen-2,毕竟大型语言模型与以往大热后就销声匿迹的概念产品不同,会成为又一次深刻改变人类产业的革命,几乎是各行各业的共识。内地已有影视计划藉大模型完成,如剧本筹备阶段,会把分镜交给Midjourney做(据说省下几十万成本)。假设有天Gen-N成熟到也能产生能直接用的完美镜头呢?
或可拿大模型的游戏业应用比较,Midjourney等工具显然对游戏公司产生非常现实的影响:先是出于节省成本目的砍掉美术外包团队,接着就是动到自己人,甚至有从业者提到最多八成原画师会失业。考虑到大模型更新速度,影响到影视业也是迟早的事。不过Gen-2可能会先淘汰影视业流水线“工人”,却淘汰不了真的艺术家。
有个说法,AI模型产生内容,可能80%只是无聊重复人类经验,但也可能有20%是可用的东西,如中式美学和赛博庞克如何融合,普通创作者可能需要极长时间思考,AI却可能产生让人意想不到的结果,这20%就是AI存在的意义,剩下的就让有创造力的人补足。
有业者提到一个观点,AI大模型进入影视业,不代表非专业人士也能轻松上手──如果想藉AI的力量创作剧本,也需要学习剧本公式和故事结构等基本知识,不具备这些的小白即便有AI超级助理也无济于事。
回到AI是否能取代好莱坞的问题,其实好莱坞可能是最早对新技术“入侵”有反应的有优势者,5月初数以千计好莱坞编剧工会(WGA)成员罢工示威,诉求之一便是抵制写剧本用到AI。如果有天Gen-N真的出现,就会换成好莱坞导演跳出来抵制了。
(本文由 品玩 授权转载;首图来源:网页截图)
▼
特别声明 本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。