Google 为了追上 ChatGPT 降低道德底线,还能说“不作恶”吗?

Google 为了追上 ChatGPT 降低道德底线,还能说“不作恶”吗?

“Don′t Be Evil”(不作恶)这句口号,2018 年前一直是 Google 座右铭和行为准则,指 Google 做事时要遵循道德和法律,不做有害社会和用户的事。

但到 2018 年就修改为“Do the right thing”(做正确的事)。这被许多人认为 Google 违背初心,商业行为也没有保持技术中立性,更偏商业获利,收集用户隐私,利用数据大赚钱。

提起 Google 这句经典口号,是因 AIGC 突然爆发,与网络爆发异曲同工。CEO Sundar Pichai 接受 CBS〈60 分钟〉节目采访时,对 AI 又提到“Don′t Be Evil”,也表示 Google Bard 显得笨拙,是没有公开高级版。“希望社会更多时间适应 AI,给公司更多时间开发安全围墙”。

简单来说,Pichai 认为 Google 实力不比 OpenAI 差,是因社会责任才暂时封印 AI 技术。但无论彭博、the Verge 或金融时报,Google 本身对 Bard 及 Google 对 AI 技术开发和监管,都有截然不同的声音。

为了抗衡 ChatGPT,伦理道德先放一边

约 2011 年 Google 创立 Google Brain,开始深度学习领域,代表 Google 涉足 AI 业务。从此以后,Google 几乎每年都会在 AI 领域取得小成果和小目标。从 AlphaGo 下棋赢过世界冠军李世乭,到发表 TensorFlow 开源框架,再到机器学习晶片 TPU,和近期 BERT、LaMDA 等语言模型。

Google AI 领域可谓轻车熟路,研究 AI 时也有风险团队、技术团队等,可谓兵强马壮。当然也有点不可一世。

每年 Google 开发者大会也转向 AI,展示 AI 领域的深厚实力。外界也普遍认为,Google 会率先引领 AI 变革。直到 ChatGPT,准确的说是 GPT-3 横空出世,以及 GPT-4 和 Midjourney V5 续热,还没等 Google 反应过来,微软就抓住机会与 OpenAI 合作,将 ChatGPT 加入新 Bing,引发“搜寻”改革。

Google 为了追上 ChatGPT 降低道德底线,还能说“不作恶”吗? AI与大数据 图2张

(Source:shutterstock)

当 Google 回过神来连夜推出 Bard,却一上线就闹乌龙、出不少错,且至今只支援英文,与 ChatGPT、新 Bing 相比,Bard 逊色太多。仓促推出 Bard 的结果,就是引发信任危机、股价大跌,即便后续调整,Bard 影响力仍不能与 ChatGPT 相提并论。

造成这局面,Google 员工也表示,Bard 压根就没通过道德基准测试,很容易说谎和负面言论。内测时某员工问 Bard 如何降落,回答步骤极易导致坠机。另一员工问 Bard 潜水问题,它说出容易导致严重伤害或死亡的答案。

除了危险答案,道德伦理和社会问题,Google 也放宽要求。Google 有 AI 道德团队,会搜索、确立、评估 AI 的风险,有权直接为某技术打红色标签,未通过测试就暂时不公开。

Google 承诺 2021 年扩充 AI 道德团队,并投入更多资源,限制研究员太逐利。但团队领导人一直换,且去年遭裁员,目前 Google AI 研究员比道德团队多 30 倍。甚至 ChatGPT 抢尽 AIGC 锋头后,Google 开始动摇,道德团队员工被告知不要阻挠或“杀掉”任何开发中生成式 AI 工具。

内测收到不少“质疑”后,Google 面对微软和 ChatGPT 的商业压力,最终选择以“实验产品”名义发表。因统计调查实验产品即便有缺陷,也容易被大众接受,且一些员工也认为新技术尽快公开,获得回馈就能更快更新、改善产品。Bard 发表后一段时间,Google 也只增加数学逻辑,至于敏感围墙、敏感主题是否改变和最佳化都没有提及。

Bard 在每日一变的 AI 浪潮中似乎渐渐边缘化。

马斯克:AI 必须受监管

有趣的是,Pichai 访谈后,马斯克也在 Fox 新闻谈到 Google。马斯克与 Google 创办人 Larry Page 是好友,Page 甚至持 10% 的 SpaceX 股票,还想跟马斯克一起去火星玩沙。但 2014 年 Google 收购 DeepMind 后,二人对 AI 看法产生分歧,最终不相往来。

Google 为了追上 ChatGPT 降低道德底线,还能说“不作恶”吗? AI与大数据 图3张

▲ 马斯克与 Larry Page。

同年 Page TED 演讲时表示,终极目标是建造超级数位人工智慧,称为“数位之神”(digital god)。Pichai 在〈60 分钟〉没有否认也没有认同,只表示 Google 将在 5 月 10 日开发者 I/O 大会发表新 AI 产品。

马斯克对“数位之神”有清晰认知,Google 有全球接近垄断的高性能计算机与人工智慧团队,也最有可能达到“数位之神”境地,但领导人 Page 却丝毫不关心 AI 的安全问题,对世界来说相当危险,这也是他看到 ChatGPT、新 Bing、Bard 喜欢胡说后,想推出 TruthGPT 的原因。

马斯克也呼吁各地区、各组织推出政策限制 AI 行为。由于生成式 AI 特性,资料来自网络论坛、论文、网站等各式内容,这些都没有拿掉敏感内容,若不严格限制,很容易产生有风险、有害或不准确的言论。

随着 AIGC 大热门,入局者犹如淘金热,仿佛人工智慧进入新发展阶段,但目前大模型、高算力工业模式,让 AI 很容易被大公司垄断。当组织难维持逐利与安全平衡,就很容易 AI 取向犯错,造成不可挽回的后果。纵使马斯克对 AIGC 有私心,但颇会做表面工夫演一下好人。

能力越大,责任越大

Google Photos 会用 AI 辨识图来标注,帮助用户梳理图片分类,算 Google 较早 AI 应用,即便 Google Photos 调整容量,但仍是笔者最常用的 App。2015 年 Google Photos 误将黑人软件开发者和朋友图片标注成“大猩猩”,一般反应是道歉并修改演算法,但 Google 却将“大猩猩”、“黑猩猩”和“猴子”等搜寻结果全部删除。

限在面对 Google Bard 的问题,Google 仍没有想承担后果的迹象,同样选择忽视。为了追上 ChatGPT,Google 的 AI 道德团队没有全方位评估,仅研究敏感主题便匆忙推出。彭博也引用前 AI 道德团队高层评论,认为 Google 对要发展“尖端 AI”或“有道德底线的 AI”一直争论不休。

AIGC 业界不只 Google,金融时报也暴露微软、亚马逊等科技巨头都大举裁撤 AI 伦理团队,仿佛 AIGC 高速发展、互相竞争时,AI 伦理、AI 安全都是影响发展的枷锁。

如史丹佛大学研究员报告,AI 业快速发展从学术转向商业化,利益诱惑下,各种 AI 涌现,但背后的伦理道德、安全、敏感、有害讯息等却遭忽视。大公司不愿承担更多社会责任,仅在法规边缘徘徊,可能为社会和 AI 业带来深远影响。

多国甚至公司组织都积极制定法规,以限制 AI 无节制发展。正富比士中文版前副主编尹生所言:“大公司必须做得比用户和法律要求更多,因创建新世界并获益,必须帮助社会学会如何使用它,如果你不主动做,社会就会接管。”

(本文由 爱范儿 授权转载;首图来源:shutterstock)

延伸阅读:

  • 仓促推 Bard!Google 员工怒批执行长“短视近利”:考绩应打最低
  • Google 转弯?高层:Bard 非搜寻引擎、激发创意为主
  • Google 惊爆员工曾“恳求”别推 Bard,批其是“近乎病态的谎言”、“比没用还糟糕”
  • Google 否认用 ChaGPT 数据训练 Bard

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。