AI 教父世纪辩论:科技公司要求监管人工智慧,背后图利了谁?

AI 教父世纪辩论:科技公司要求监管人工智慧,背后图利了谁?

拿下图灵奖的 AI 教父们,辛顿、班吉欧、与 Meta 副总暨首席 AI 科学家杨立昆,和日前访台的吴恩达,10 月 30 日开始在旧名 Twitter 的 X 上展开世纪辩论。他们争论的题目是,科技公司要求 AI 监管,到底图利谁?有人直指,许多大企业假监管之名,是想先设下竞争对手的围篱。也有人嘲笑,有人热爱用算命仙末日预言惊吓世人,其实没人知道 AI 如何灭绝人类。症结在哪?谁是谁非?请见本文详解。

自马斯克4月联合千人连署要求暂停开发升级GPT-4后,至今全球各方AI教父和大神,对于人工智慧的风险,以及是否应该监管,始终没有共识。刚访台不久的吴恩达(Andrew Ng),10月30日接受澳洲财金评论(The Australian Financial Review)专访时,替这场论战激起最新一轮火花。立场和他大不同的辛顿(Geoffrey Hinton),听了也立即在旧名Twitter上的X展开凶猛回应,有引来世纪大辩论的迹象。

到底这些人工智慧专家,立场如何不同?简单来说,可以分为反对监管派与支持监管派两阵营。

  • 反对AI监管派:以Coursera创办人吴恩达和Meta首席科学家杨立昆为首,他们认为人工智慧风险被过度夸大、官方应该监管产品而非研发,甚至指控科技公司呼吁监管是想限制竞争。
  • 支持AI监管派:有得过图灵奖的人工智慧三位教父中的两位,班吉欧(Yoshua Bengio)和辛顿,还有OpenAI的执行长奥特曼(Sam Altman)、开发Claude的Anthropic共同创办人雅茉德(Dario Amodei, Daniela Amodei)兄妹,还有DeepMind共同创办人哈萨比斯(Demis Hassabis),他们认为人工智慧将会通往超级智慧(super intelligence),有机会取代人类,因此有必要监管AI系统发展、规范科技企业。

梳理双方论点,其实对立阵营中,相似的想法远多于相异。例如两边都肯定AI带来的进步效益,也同样承认AI有潜力对社会造成危害;分歧主要体现于风险规模、官方监管效率、科技巨头的权力与竞争,以及最根本的“技术究竟是否中立”。

吴恩达、杨立昆:大企业只是为了把持AI发展,假意谈监管

吴恩达强调,完全支持纳管人工智慧,例如思考自驾车的责任、自动交易演算法对市场的影响等,都是重要议题。然而,看到AI研发领跑的企业也在呼吁监管,让他开始怀疑,这些顶尖企业是不是打算仰赖官方介入,扼杀创新,甚至是减少竞争?

“山姆(Sam Altman)是我在史丹佛的学生,他也和我一起实习。我不想特别谈他,因为我无法知道他在想什么。但是……我觉得有很多大公司发现,如果不用跟开源大语言模型竞争,会是很棒的一件事。”

吴恩达(见下图)说,有其他产业因为管制导致效率降低,公益反而降低,他不希望科技与AI产业也沦为“管制俘虏”(regulatory capture)。“我不认为毫无管制是正确的,但现在看到各地区管制的发展方向,我认为不管制会比现在更好。”在吴恩达创办的新创教育公司DeepLearning.AI所发电子报中,他更完整的提出一套论述。AI 教父世纪辩论:科技公司要求监管人工智慧,背后图利了谁? AI与大数据 图2张

(Source:TechCrunch, CC BY 2.0, via Wikimedia Commons)

吴恩达认为,呼吁官方管制者认为,人工智慧替人类带来灭绝风险(extinction risk)或者存在风险(existential risk),确实有些人真心相信此论点,但他觉得有些人提出此论述只是为了私利,例如想要四处演讲的名人、为了募集资金的非营利组织,还有筹措竞选捐款的议员们,以及企图降低竞争的科技公司们。

和吴恩达站在相同立场的杨立昆,见到英国近期举办人工智慧安全高峰会,讨论AI对人类存在的风险,先是讥讽英国首相罹患“人工智慧幻想症”(AI Delusion disease),接着点名奥特曼等人,痛批他们游说官方监管,其实是为了把持AI模型。

杨立昆担心,监管只会扼杀开源的AI开发,只有私有且封闭的企业握有最先进的AI系统,未来全人类将会活在被美国西海岸和内地少数企业控制AI平台的世界里,结果是比起Facebook社群时代更深度的剥削。因此,开放、透明、低门槛让更多人取用的AI系统和软件平台,才是对抗AI恶意用途的良方。

辛顿:开源AI叫正义,那何不开源核子武器?

针对反监管派的说法,辛顿很快在Twitter上回应,他说自己离开Google,就是为了自由地表达人工智慧对人类带来的威胁。另外,他也补充,科技公司之所以欢迎官方监管,是因为当企业遵守官方规定,就能够降低未善尽法律要求所要负的责任,例如在官方制定规范以前,自驾车开发者没有规定可以遵循,若是出了车祸,很难厘清责任归属。

辛顿对人工智慧的担忧有些很实际,例如让人类失业,或者是AI驱动假新闻、有偏见的演算法伤害求职者,还有执法单位与战争中对技术的滥用;有些担忧则更巨大:当人工智慧拥有意识后,将会逃脱系统控制,甚至影响人类生存。他也发推回应杨立昆“开源AI模型就是解方”的论点,表示“那我们何不开源核子武器呢?”

与辛顿的说法相呼应,班吉欧投书媒体,表示他同样担忧日常生活中可见的AI危害。尽管现在AI距离取代人们还有一段距离,但“想到人工智慧的风险,让我夜不能寐。”班吉欧认为,AI掌握语言、拥有知识,已经可以熟练(但不可靠的)与人对话、创作内容,若继续以惊人速度进步,终将会变得危险,甚至超越人类。

班吉欧:没人知道人工智慧的风险

看到立场相异的老友发言,班吉欧表示,“杨立昆和其他人说(AI)不是问题,但他们其实不知道──事实上,根本没有人知道。”

没有人会怀疑AI教父对于人工智慧发展潜力的判断,但他们的想法仍出现巨大的分歧:以最根本的、对AI风险的判断来说,杨立昆认为AI风险论者,根本没办法论述AI如何灭绝人类,辛顿和班吉欧则是以末日预言式的说法,反批AI无风险论者无法证明风险不会成真。

其他包括官方监管有没有效率,还有科技企业开源模型是否就能避免垄断,以及AI自己是否就是AI恶用的解方,双方都持有完全不同想法。这样的论战,恐怕只会继续下去。

(本文由 远见杂志 授权转载;首图来源:Unsplash)

延伸阅读:

  • 世界强权签署划时代 AI 国际协定,《布莱切利宣言》将有何影响?
  • AI 泡沫化将至?从查理‧蒙格的谨慎态度看 AI 前景
  • 从科技巨头视角看美国 AI 监管:一致同意,问题是怎么管

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。