微软拼速度推 AI,外媒:道德监督团队遭解雇

微软拼速度推 AI,外媒:道德监督团队遭解雇

科技公司藉AI 产品让自己避免泡沫化,而微软抢走头香后,还要担心对手后来居上,拼速度为首要之务,但无论多令人叹为观止的 AI,都可能出现道德失误,现在微软不管了,万人裁员计划AI 道德监督团队赫然名列其中。

AI 工具会帮助人类做出更佳决策,但如果设计过程没有考虑道德因素,AI 工具很可能用于恶意目的或误导。微软等大企业一直强调负责任的科技,AI 道德与社会团队主要指导 AI 创新过程符合道德、负责任和可持续成果,但随着微软与 OpenAI ChatGPT 与增强式搜寻引擎大出风头,最近这团队却被裁掉,让人质疑微软将 AI 工具推向社会时,是否也违背当初的承诺。

外媒报道,微软保留人工智慧办公室 (ORA),这部门主要是为 AI 制定规则,但最近被裁道德与社会团队为确保微软AI 原则体现至产品设计,负责确定微软产品整合 OpenAI 技术的风险程度。

道德和社会团队不是很大,去年 10 月重组后只剩7 人,大部分员工都转到其他团队。外媒消息来源称,微软首席技术长和执行长 Satya Nadella 压力越来越大,要求尽快将最新OpenAI 模型及下一代交给客户。被解雇员工认为,微软为了对手赶上前交付 AI 产品,导致不太关心长期、对社会负责等方面。

AI 产品潜在的风险,微软可能不想再听到负面声音,因下定决心从 Google 夺走市占率。微软每从 Google 抢走 1% 市占,就带来 20 亿美元年收入,这条钞票铺成的路上,潜在社会后果或法律警告都可能是绊脚石。

《纽约时报》最近也撰文,已在 AI 版搜寻引擎 Bing 发现太多偏见与错误,如谈到政Z,Bing 表现左倾偏见,整体看,Bing 的答案偏向好斗、居高临下、威胁、政Z目标、毛骨悚然和说谎,足以大规模传播错误资讯和阴谋论,孤独者更可能受鼓励走上自我毁灭的道路,假讯息也非常多。

原因之一就是传播速度。微软执行长 Satya Nadella 以疯狂形容发表聊天机器人的速度,可知现在微软战略方针很明确。报道认为,微软向 169 国超过 100 万用户推送Bing很鲁莽,显示赚钱已凌驾社会责任之上。

竞争激烈的市场,即使心存善念的公司也不得不向现实低头。AI 全球谘询公司 Fractal 资料科学家兼首席顾问 Sray Agarwal 也认为,世界仍处于合乎道德使用 AI 的最初阶段,现在离负责任的 AI 还差得很远。如微软等领头羊企业,更应坚持原则而不是利润,纽时更对微软喊话:“现在比任何时候都需要负责任的 AI,历史正在看着你。”

  • Microsoft lays off an ethical AI team as it doubles down on OpenAI
  • ChatGPT Brings Ethical AI Questions to the Forefront
  • History May Wonder Why Microsoft Let Its Principles Go for a Creepy, Clingy Bot

(首图来源:Image by Freepik)

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。