微软拼速度推 AI,外媒:道德监督团队遭解雇

▼
科技公司藉AI 产品让自己避免泡沫化,而微软抢走头香后,还要担心对手后来居上,拼速度为首要之务,但无论多令人叹为观止的 AI,都可能出现道德失误,现在微软不管了,万人裁员计划AI 道德监督团队赫然名列其中。
AI 工具会帮助人类做出更佳决策,但如果设计过程没有考虑道德因素,AI 工具很可能用于恶意目的或误导。微软等大企业一直强调负责任的科技,AI 道德与社会团队主要指导 AI 创新过程符合道德、负责任和可持续成果,但随着微软与 OpenAI 因 ChatGPT 与增强式搜寻引擎大出风头,最近这团队却被裁掉,让人质疑微软将 AI 工具推向社会时,是否也违背当初的承诺。
外媒报道,微软保留人工智慧办公室 (ORA),这部门主要是为 AI 制定规则,但最近被裁道德与社会团队为确保微软AI 原则体现至产品设计,负责确定微软产品整合 OpenAI 技术的风险程度。
道德和社会团队不是很大,去年 10 月重组后只剩7 人,大部分员工都转到其他团队。外媒消息来源称,微软首席技术长和执行长 Satya Nadella 压力越来越大,要求尽快将最新OpenAI 模型及下一代交给客户。被解雇员工认为,微软为了对手赶上前交付 AI 产品,导致不太关心长期、对社会负责等方面。
AI 产品潜在的风险,微软可能不想再听到负面声音,因下定决心从 Google 夺走市占率。微软每从 Google 抢走 1% 市占,就带来 20 亿美元年收入,这条钞票铺成的路上,潜在社会后果或法律警告都可能是绊脚石。
《纽约时报》最近也撰文,已在 AI 版搜寻引擎 Bing 发现太多偏见与错误,如谈到政Z,Bing 表现左倾偏见,整体看,Bing 的答案偏向好斗、居高临下、威胁、政Z目标、毛骨悚然和说谎,足以大规模传播错误资讯和阴谋论,孤独者更可能受鼓励走上自我毁灭的道路,假讯息也非常多。
原因之一就是传播速度。微软执行长 Satya Nadella 以疯狂形容发表聊天机器人的速度,可知现在微软战略方针很明确。报道认为,微软向 169 国超过 100 万用户推送Bing很鲁莽,显示赚钱已凌驾社会责任之上。
竞争激烈的市场,即使心存善念的公司也不得不向现实低头。AI 全球谘询公司 Fractal 资料科学家兼首席顾问 Sray Agarwal 也认为,世界仍处于合乎道德使用 AI 的最初阶段,现在离负责任的 AI 还差得很远。如微软等领头羊企业,更应坚持原则而不是利润,纽时更对微软喊话:“现在比任何时候都需要负责任的 AI,历史正在看着你。”
- Microsoft lays off an ethical AI team as it doubles down on OpenAI
- ChatGPT Brings Ethical AI Questions to the Forefront
- History May Wonder Why Microsoft Let Its Principles Go for a Creepy, Clingy Bot
(首图来源:Image by Freepik)
▼

特别声明 本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。