AI 危险性让 OpenAI 执行长担心到失眠!是什么引起科技领袖恐惧?

AI 危险性让 OpenAI 执行长担心到失眠!是什么引起科技领袖恐惧?

2022 年底 ChatGPT 全球爆红,各行各业都在关心如何业务导入人工智慧,全球最大管理谘询公司埃森哲(Accenture)近日更宣布,投资 AI 30 亿美元(约新台币 920 亿元),帮助建构新产业解决方案,让所有产业客户都有足够能力运用人工智慧达成更高成长、效率与弹性。

埃森哲认为,云端、数据、人工智慧生态系统,将彻底改变他们的服务性质,《财星》(Fortune)世界 500 强公司超过 75% 是埃森哲的客户。埃森哲董事长兼执行长朱莉‧斯威特(Julie Sweet)观察:“人们对人工智慧所有领域都产生前所未有的兴趣,我们对数据和人工智慧实践大量投资,帮助客户从兴趣转向行动再到价值,并提供明确的业务运用案例。”

“我不在乎企业规模多大多小,都必须了解人工智慧”,科技公司创业家马克‧库班(Mark Cuban)日前于美国地区商会会议指出,所有企业都必须了解并思考人工智慧会怎样影响公司经营,发展更牢固的客户关系并挖掘新客户。“尽管看起来很复杂,但必须要有足够好奇心把人工智慧搞清楚,要是忽略趋势,恐怕会尝到苦果。”库班认为,有效运用人工智慧的公司,可确保长期发展的稳定性。

“开发 ChatGPT 可能是非常糟糕的事!”OpenAI 执行长因 AI 危险性睡不着

然而,带起 AI 风潮的 ChatGPT 母公司却没那么乐观,OpenAI 执行长山姆‧奥特曼(Sam Altman)近日坦言,考虑到 AI 的潜在风险,他担心开发 ChatGPT 是件“非常糟糕的事”,还因此失眠。被问到 AI 是否该像核能受监管时,奥特曼回应,要有更好系统检核 AI 使用方法,“这样我们就可对审核正在做这件事的人,并部署前仔细测试安全性”。

不只奥特曼,许多科技领袖和官方官员都对人工智慧发展速度表示担忧。3 月特斯拉创办人马斯克(Elon Musk)、苹果共同创办人史蒂夫‧沃兹尼克(Steve Wozniak)等科技领袖与生命未来研究所(Future of Life Institute)共同发表公开信警告:应该确保人工智慧有正面影响后,才继续开发强大的人工智慧系统,让风险可控。

人工智慧到底危险在哪?

这些顾虑都其来有自,之一是人工智慧会产生错误讯息,这是事实也是巨大的风险,OpenAI 研究人员报告挑明:“即使是最先进模型也容易产生假讯息,AI 面对资讯不确定时,有捏造事实的倾向。”如果使用不当,可能会给大众负面影响。

日前奥特曼也与 350 多名科学家和技术领袖签署声明,表达对人工智慧背后风险的深切关注:“降低人工智慧可能造成的风险,应与流行疾病、核战争等其他可能危及社会的风险,一起列为全球优先事项。”

此外,当企业或官方单位赋予人工智慧系统愈来愈多自主权,并连接重要基础设施,如电网、股票市场和军事武器,可能引发问题。“人工智慧将有更多授权,它更自主后,可能会篡夺人类和人类管理机构的决策和思维。”生命未来研究所共同创办人安东尼‧阿吉雷(Anthony Aguirre)警告,某些时候,运作社会和经济的大型机器并不真的在人类控制之下,也无法关闭。

《纽约时报》(The New York Times)报道,对人工智慧悲观的人常用简单比喻:如果要求机器尽可能多制作回纹针,它可能将用得到的材料(包括人类)都带回工厂,好生产更多回纹针。

蒙特娄大学(University of Montreal)教授兼人工智慧研究员约书亚‧班吉欧(Yoshua Bengio)表示,今日人工智慧系统要威胁到人类生存,还差得远。“但一年、两年、五年后,有太多不确定性,这就是问题所在。我们不确定 AI 是否会在某时刻变成灾难。”

当人工智慧技术发展比人们预想还快,会造成两种可能:跟不上趋势的企业被商场淘汰;另一方面,倘若技术未适当控管而失控,可能如科幻电影剧情,导致人类生存危机。要如何因应人工智慧发展趋势,只得仰赖更多科技领袖、官方做出更好决策。

  • Mark Cuban: Companies of all sizes will need A.I.
  • OpenAI is pursuing a new way to fight AI ‘hallucinations’
  • OpenAI CEO Sam Altman Says He Is Losing Sleep Over ChatGPT
  • How Could AI Destroy Humanity?

(本文由 潮品文月刊 授权转载;首图来源:Unsplash)

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。