OpenAI 执行长阿特曼:AI 越强大,更多怪事会出现

OpenAI 执行长阿特曼:AI 越强大,更多怪事会出现

ChatGPT 推手阿特曼 18 日在世界经济论坛表示,当世人更接近功能强大的 AI,更多怪事会出现,但不用担心被取代,因人类仍是世事决定者。他也谈到被《纽约时报》控告及一度被下台的风暴。

人工智慧(AI)风云人物、研发热门产品ChatGPT新创公司OpenAI共同创办人暨执行长阿特曼(Sam Altman),18日参与世界经济论坛(WEF)探讨AI冲击的论坛。

向来强调AI为善一面的他被主持人札卡利亚(Fareed Zakaria)问道,当AI超越人类的分析和计算能力后,人类还有什么核心竞争力。

阿特曼举常说的下棋为例,几年前AI开始有能力下西洋棋时,有人觉得西洋棋玩完,但没有人想看AI对弈,大家要看的仍是人类棋手能否胜过AI。他表示人类仍处于较高地位,“是人类决定世界什么事该发生”。

而《纽约时报》(The New York Times)控告OpenAI未经许可使用数以百万篇文章以训练聊天机器人的官司,阿特曼表示“我们会付纽时很多钱”。

他解释,付费是基于当ChatGPT回答用户问题,会引述来源、外部连结,也就是AI提供用户资讯用到外部来源时,就会付费给内容生产者。他强调不只纽时,也会付费给所有内容生产者。

换言之OpenAI无意付钱给AI训练时使用的公开资料,阿特曼也说数年内训练AI的方法会有大改变。

札卡利亚最后请他谈谈从去年11月OpenAI引起全球热议的人事地震学到什么教训。当时共同创业伙伴在董事会无预警解雇阿特曼,引爆员工跟着辞职潮,五天后董事会请回他续任执行长。

阿特曼支吾一阵后委婉说:“当我们每更接近强大AI,每人性情就像多十个疯狂点(crazy points),非常有压力,但应该如此,因我们试着为非常高风险的事负责。”

他也将感受从内在角度延伸扩大。“重要的是,当全世界更接近强大AI,我预估会有更多怪事,需要做更高层次的准备,更多韧性,花更多时间思考哪里会出错。”

出席同场论坛的云端软件公司Salesforce执行长班纽夫(Marc Benioff)认为,目前AI问题不在是否取代人类,而是它能增强人类的能力,但“我们还不太信任它”。他认为人们须厘清使用AI的核心价值,并说新科技如核能会带来福岛灾难,“我们不想看到‘AI福岛事件’发生”。

谘询公司埃森哲(Accenture)执行长史威特(Julie Sweet)认为,关键问题应是“如何使用AI,而非如何解决AI造成的麻烦”,她强调须促成以负责任方式使用新科技。

出席论坛的英国财政大臣韩特(Jeremy Hunt)同意管制AI,但需让新科技成长。他答复美欧“AI战场打赢内地”说法时强调,AI不应沦为地缘政Z强权竞争的工具,但自由民主价值对建立AI标准非常重要。

(作者:田习如;首图来源:shutterstock)

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。