OpenAI 默默修订使用政策,恐为军事 AI 应用敞开大门
▼
OpenAI 使用政策规定用户如何运用 ChatGPT、DALLE 等 AI 工具,然而上周默默从使用政策删除用于军事目的措辞,被视为可能让军事 AI 应用得以接上 OpenAI 技术。
OpenAI 使用政策原先禁止“具有人身伤害高风险的活动”,具体包括“武器开发”、“军事和战争”,禁止军事应用的明确措辞似乎排除任何官方可能性。然而新政策保留“不得使用我们的服务伤害自己或他人”禁令,并以“开发或使用武器”为例,但对用于“军事和战争”禁令已被删除。
美国调查新闻网站 The Intercept 最先注意到 OpenAI 这项变化,新政策页面似乎是在 1 月 10 日更新。
这次未经正式宣布的使用政策修订,OpenAI 解释是使政策内容更清晰、易读取,包括许多语言和格式修改。“我们目标是创造一套易于记忆和应用的通用原则,特别是我们工具现在已被全球用户使用,他们现在也能建立 GPT”,OpenAI 发言人 Niko Felix 提供给 The Intercept 声明表示。
“我们政策不允许工具用来伤害他人、开发武器、监视通讯、破坏财产”,Niko Felix 在声明写道,但他未说明“伤害”禁令是否涵盖所有军事用途。
“OpenAI 非常清楚在军事应用使用其技术和服务可能产生风险和危害”,网络安全公司 Trail of Bits 工程总监、是机器学习和自主系统安全专家 Heidy Khlaaf 告诉 The Intercept,并引用 2022 年她与 OpenAI 研究人员合着论文,标出军事用途可能造成风险。“前后政策之间存在明显区别,前者明确规定禁止武器开发、军事和战争,后者则强调弹性和遵守法律”,她认为新政策似乎更强调合法性而非安全性。
“开发武器以及进行军事和战争有关活动在不同程度上是合法的,对 AI 安全有潜在巨大影响。有鉴于大型语言模型存在众所周知的偏见和幻觉,整体缺乏准确性,在军事上使用只会导致不精准、有偏见的行动,可能会加剧冲突、使平民伤亡”,Heidy Khlaaf 表示。
虽然 OpenAI 目前提供任何服务无法直接杀死人,就连 ChatGPT 也无法操控无人机或发射导弹,但 ChatGPT 背后的大型语言模型可以强化许多军事相关处理能力,比方说编写程式码或处理复杂指令,且有美国部分军事人员逐步导入,做为辅助用途,最终目的可能具有杀伤力。
随着产品不断演进,科技业界经常发生未经正式宣布的政策措辞变更,OpenAI 也不例外,然而 ChatGPT 为去年掀起全球 AI 热潮,让 OpenAI 每一步动向成为外界关注焦点,其中 AI 安全还未有明确规范下,OpenAI 修订使用政策措辞值得观察军事 AI 应用方面后续效应。
- OpenAI Quietly Deletes Ban on Using ChatGPT for “Military and Warfare”
- OpenAI eases stance on the use of ChatGPT for military purposes
- OpenAI changes policy to allow military applications
(首图来源:Unsplash)
▼
特别声明 本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。