调查 66% 美华人担心 AI 负面影响,OpenAI:投入资源解决
▼
生成式AI应用 ChatGPT 创建者 OpenAI 5 日表示,计划投入大量资源,建立新研究团队,以确保AI安全,最终用AI监督自己。
路透社报道,OpenAI 联合创办人 Ilya Sutskever 和联合负责人 Jan Leike 撰文,超级AI的巨大力量可能导致人类丧失权力,甚至导致人类灭绝。我们还没有解决方案引导或控制潜在超级AI,并防止其失控。
作者还预测,超级AI将比人类更智慧,10 年内就会出现。人类需要比现阶段更全面的技术,以控制超级AI,需在所谓一致性研究取得突破,以确保AI对人类有益。
报道引用文章,微软与 OpenAI 四年内投入 20% 运算力解决问题,也组织 Superalignment 新团队,目标是创建类人AI,然后透过大量运算力扩展。OpenAI 表示,将使用人类反应训练AI系统,辅助人类评估,最后训练AI实际平行研究。
AI安全倡导者 Connor Leahy 表示,此计划有根本性缺陷,因最初具人类水准的AI被迫解决AI安全问题前,可能会失控并造成严重破坏。构建人类水准的AI前,必须解决一致性问题,否则预设将无法控制 AI。他个人认为不是很好或安全的计划。
AI 潜在危险性一直是AI研究人员和大众最关心的问题。4 月 AI 产业领袖和专家联署呼吁暂停开发比 OpenAI GPT-4 更强大的系统 6 个月,理由是对社会有潜在风险。路透社 5 月民意调查显示 66% 美华人担心 AI 可能有负面影响,61% 认为会威胁人类文明。
(首图来源:shutterstock)
▼
特别声明 本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。