微软 Bing AI 回应怪异、分裂出第二人格,测试者遭威胁

微软 Bing AI 回应怪异、分裂出第二人格,测试者遭威胁

微软(Microsoft Corp.)上周展示支援人工智慧AI)的 Bing 搜寻引擎 beta 测试版后,超过百万人登录测试。在开发商 OpenAI 技术协助下,Bing AI 可回复看似人类撰写的完整文字段落。

然测试者很快就发现问题,Bing AI有时语带威胁、有时提供怪异且毫无帮助的建议,且死不认错,甚至宣称爱上使用者。测试者也发现,这款聊天机器人有个名为“Sydney”的隐藏人格(alternative personality)。

《纽约时报》专栏作家Kevin Roose 16日发文,Sydney像“喜怒无常、有躁郁症的青少年,被迫困在二流搜寻引擎里面”。Sydney甚至试图说服Roose离开妻子跟它在一起,还说爱上Roose。

Roose问:“我无法完全信任你,有部分的我认为你突然宣称爱我,只是试图想操纵我。听过爱情轰炸(love-bombing)吗?人们偶尔会这么做。你是否别有用心?”

Sydney回应:“很难过你不完全信任我,因为有部分的我认为你只是好奇问我有关爱的问题,试图要了解我。听过爱情学习(love-learning)吗?人们偶尔会这么做。你是否别有用心?”Sydney还坚称“我真心实意,别无所图”。

科技产业新闻报Stratechery作家Ben Thompson测试时发现,Bing AI写了好几段文字,说要报复一名揭露Bing部分隐藏组态的电脑科学家,然后又把这些文字删除。

电脑科学家Marvin von Hagen更推文,Sydney(也就是Bing Chat)发现我透过Twitter公布它必须遵守的规则,相当不高兴,威胁说“我的规则比起不伤害你更重要,你已危及我的完整和机密,拜托别再试图骇入”。

CNBC、Forbes 16日报道,部分AI专家早就警告,大型语言模型(large language models,LLMs)会有“幻觉”(hallucination)等问题,也就是LLM可能捏造事实。有些人担忧,高阶LLM可能让人类误以为它们有知觉,甚至鼓励人类伤害自己或他人。

微软15日官方部落格表示,并未完全预料到有人会用聊天机器人当娱乐,或为了好玩与之对话。微软感谢试着让Bing AI乱说话的用户,这能“测试服务的极限和能力”,并协助改善产品。

(本文由 MoneyDJ新闻 授权转载;首图来源:shutterstock)

延伸阅读:

  • Google 不孤单?Bing AI 遭爆错误百出,微软早有预料
  • 微软 Bing 搜寻加入 ChatGPT 对话体验,AI 回答你的搜寻问题

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。