为什么全人类都呼吁对 AGI“管起来”?

为什么全人类都呼吁对 AGI“管起来”?

3 月底马斯克等许多科技界名人共同签署公开信,希望 OpenAI 等机构暂停研发更高阶 AGI 至少 6 个月,让人类达成某种基于 AGI(通用人工智慧)威胁的协议。

这封信虽然不长,但内容非常广泛,提出问题很丰富。如人类该如何算这笔帐,因AGI让资讯管道充斥广告甚至谎言;如果人类本来就喜欢擅长的工作,是否该让AI代劳?效率提升是否值得冒着“失去文明控制权”的风险?AGI监管系统又该如何设计?

这封信引发硅谷空前观点撕裂大讨论。毕竟以GPT3.5进入人类视野为起点,AGI发展还有太多问题没解决、太多争议难达成共识。但当人类还在争吵,AGI已在全球各地开始制造麻烦了,假讯息和各种泄露都是让人不安的大黑箱。

最近欧美日韩各发达地区都开始监管大模型的讨论。4月11日内地地区互联网资讯办公室发布《生成式人工智慧服务管理办法(征求意见稿)》大概算人类的AGI监管最早官方立场。不过监管往往是人们理解AGI时很独特的角度:

不同于科学家视角有很多参数复杂解释、复杂模型框架流派,监管者是社会利益的代言人,也站在社会整体角度思考,应更接近大部分人直觉,但又代表核心专家群想法,所以也能回应新事物某些问题。

我是谁:生成式AI

站在硅谷角度,AGI约等于大模型,是最佳化模型、结构语料库和庞大算力组合而成,有点智慧体思想特征的计算机程式。内地《办法》对这“新物种”分类到“生成式人工智慧”行业,即“基于演算法、模型、规则产生文本、图片、声音、影片、程式码等技术”。显然这是从AI与社会关系的角度出发。

毕竟AGI特征会改变,模型大小会浮动,但最终追求与人类社会互动的核心不会变。无论模型封闭开发多久,最终目的都是进入社会,是过去辅助决策、检索、安全、支付等垂直AI与AGI最大不同。从远景看,任何有广泛用户基础的生成式AI,大概都是有AGI底层能力的产品。

对一般人来说,AGI这个名词有点不直觉,许多人将AGI与人类相比,仿佛让人看到了“无机物有灵魂”,全然忘了AGI只是有点聪明,未来发展其实还充满不确定性。与其说未来是类《西方极乐园》的“AGI社会”,不如说是生成式AI的世界,可能更贴近这代人的现实。

我属谁:服务提供者

AGI伦理讨论有个经典问题:大模型产生的内容,版权到底属于大模型公司,还是辛苦写prompt(提示词)的使用者?内地《办法》虽然没有明确版权归属,但监管划出责任义务:

利用生成式人工智慧产品提供聊天和文本、图像、声音产生等服务的组织和个人(以下称“提供者”),包括提供可程式设计介面等方式支援他人自行生成文本、图像、声音等,承担产品产生内容生产者的责任。

这样负责人既不属大模型研发人员也不属使用者,而是属连结大模型与使用者的服务提供者。当然大部分情况AGI开发者和API提供者常是同主体,但随着技术演化,主体可能会更多元。确定中间服务提供者承担责任,其实也符合生成式AI的内地官方定义,权责划分也倒逼上游产业链必须有品质够好的内容互信。

AGI内容权:需要标注

与版权类似的争论是:AGI内容是否可与人类平常消费的内容“同等权力”?内地《办法》明确限制AGI内容有两处:

照《互联网资讯服务深度合成管理规定》对产生图片、影片等内容标记。

提供者应当根据网信部门和有关主管部门的要求,提供可影响使用者信任、选择的必要资讯,包括预训练和最佳化训练数据的来源、规模、类型、品质等描述,人工标注规则、人工标注数据的规模和类型、基础演算法和技术体系等。

AGI内容一直都有争议,尤其GPT内测时,系统有时表现得像站在村口玩手机的老人,有时直接给使用者价值判断观点,却没有够说服力的资讯佐证。如果内地《办法》实施,AGI就会彻底告别“口说无凭”输出,转而衍生搜寻类工具属性,像过去拿着AI作品去比赛拿奖的事,也将变成“黑历史”。

这与法律精神相配,AI内容产生是绝对的强者,自然要承担更多举证义务,多模组内容可能有巨大风险,当然也要有制约机制。相反,如果让AGI产生内容与人类内容完全同权,可能会对人类内容生态产生难以估算的影响。

监管生态:阿西洛马原则

众大头给OpenAI的公开信有个小细节,提出应有审计生态(ecosystem),而非体系(system),还提到阿西洛马AI原则(Asilomar AI Principles),即先进AI对人类的影响会是一个文明等级,故规划和管理耗费的资源,应与AI耗费资源相当。换言之,如果生成式AI是庞大体系,就不能仅靠某个环节、某个主体负责监管。

除了强调现有法律监管地位,内地《办法》也强调生成式AI全流程监管。如语料库(预训练数据)必须合法合规、数据标记必须培训“清晰、具体、可操作的标注规则”、使用场景必须符合规范并承担相应责任、内容本身需标注、使用者使用过程要有明确举报回馈管道等。

既然AGI会成为庞大生态基底,那监管者也需要更多元化监管。尽管大模型有一定黑箱属性,但透过整套组合拳,足以倒推技术黑箱后的合法能力,达到“开箱”地步。

为了明确开发者责任,内地《办法》还加入一条:

对于运行中发现、用户举报的不符合本办法要求的产生内容,除采取内容过滤等措施外,应在3个月内模型最佳化训练等防止再次产生。

换言之,如果监管方只想用内容过滤逃避模型最佳化责任,是违反内地《办法》了,AGI需合法的灵魂而不只是合法API。

驯火

很多人将AGI比喻为“火”,人类学会用火、享受火的文明成果,但也要花更漫长的时间驯火。公开信提到好AGI应满足几个标准:准确、安全、可解释、透明、稳健、一致、值得信赖和忠诚(accurate, safe, interpretable, transparent, robust, aligned, trustworthy and loyal)。换言之,AGI绝不能像现在这样,成为玄学般炼丹炉式黑箱,应对人类有更高确定性的利多。

所以公开信提出更多技术监管远景,如建立庞大算力、专业垂直的监管体系,达成某种底层程式码公约等。这些提议是否可行,还需要更多讨论,但相对有确定性的事是:

就像人类“驯火”过程才更了解“火”,人类只有不断与AGI互动,才能更了解AGI。

(本文由 品玩 授权转载;首图来源:shutterstock)

延伸阅读:

  • 传 GPT-5 今年 Q4 推出!若实现 AGI,全世界将会天翻地覆剧变
  • GPT-4 离成为“天网”有多远?微软最新论文大胆预测:初具雏形
  • 人类准备好了吗?AI 改变世界影响力大过电力和网络

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。