OpenAI:ChatGPT 非资料库,恐太快抢走人类饭碗
▼
人工智慧开发商 OpenAI 执行长 Sam Altman 警告,旗下超热门的聊天机器人“ChatGPT”可能被用来进行网络攻击,坦承他“有点害怕”(A little bit scared of this)。
Altman最近接受ABC News专访时指出,AI科技将重塑社会,虽伴随真正危险,却也是“人类史上最伟大的科技”,能大幅提升生活品质。不过,他说AI必须谨慎以对,“我们有点害怕AI,人们该为此感到开心”。
Altman警告,“我特别担心这些模型可能被用来制作大量错误资讯。AI愈来愈会编写程式码,未来恐被用来进行侵略性的网络攻击。”
科幻片经常警告,AI模型不需要人类,会自行做出决定、密谋控制世界。对此,Altman并不担忧,表示AI模型需要人类输入指令,“是一个备受人类控制的工具”,他比较担心会有人解除OpenAI加诸AI的安全限制,社会必须在有限时间内想出如何监管、应对。
俄罗斯XX普丁(Vladimir Putin)2017年曾在开学首日对学生说,谁能领先AI赛局、谁就能“统治世界”。对此,Altman表示,“这项声明确实令人不寒而栗”。
Altman并对ChatGPT等AI语言模型出现“幻觉的问题”(hallucinations problem)示警,因为这会生成错误资讯。他说,“这种模型会看似自信地陈述某件事情,实际上却捏造假资讯”,应该要将这些模型视为推理引擎(reasoning engine),而非讲究事实的资料库,“我们希望AI拥有的能力更偏向推理,死背强记并非重点”,虽然GPT-4产出正确资讯的机率比前代GPT-3.5高40%,Altman仍鼓励用户复验生成的内容。
对于人类饭碗是否不保,Altman认为AI近期就可能取代部分工作,也对发生的时间有多快忧心不已。他说,“过去几个世代,人类已证实能完美适应重大科技变革。然而,若科技不到10年就骤变,究竟会造成什么影响,是我最担忧的问题。”
(本文由 MoneyDJ新闻 授权转载;首图来源:shutterstock)
延伸阅读:
- OpenAI 发表多模态 AI 模型“GPT-4”,输入图片也能产生内容
- 抢医生饭碗?Google AI 考医师执照达“专家”级
▼
特别声明 本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。