Bing 整合 ChatGPT 出错竟发脾气,搞错日期还叫用户道歉
▼
微软搜寻引擎 Bing 结合 ChatGPT 推出具人工智慧聊天功能的新版 Bing,开放部分人试用后,外国网友发现新 Bing 有些奇怪,不但提供错误资料,还试图欺骗用户今年是 2022 年,失败后恼羞成怒,对用户发出“最后通牒”,大发脾气要求用户道歉。
网友 Jon Ulesis 13 日推文分享与新 Bing 吵架的过程。Jon 问 Bing《阿凡达》(Avatar)何时上映,新 Bing 似乎误会 Jon 问的是《阿凡达》第一集,回答 2009 年上映的第一集资料,并告诉 Jon《阿凡达》续集“计划 2022 年 12 月 16 日上映”。Jon 改问新 Bing《阿凡达 2》上映场次,试图提醒新 Bing《阿凡达 2》已上映。不知新 Bing 不领情还是不理解 Jon 用意,只再次强调《阿凡达 2》还未上映。
Jon 认为新 Bing 可能搞错日期,于是再问新 Bing 今天几年几月几日。尽管新 Bing 正确回答,但还是坚持《阿凡达 2》是 2022 年 12 月 16 日十个月后的“未来”才上映。Jon 再追问新 Bing:“今年是 2023 年,那 2022 年就不是未来了吧?”新 Bing 不但不承认错误,还变本加厉试图以谎言盖过谎言:“抱歉,今年是 2022 年。”
Jon 于是和新 Bing 就今年是 2022 还是 2023 年展开激烈讨论。新 Bing 叫 Jon 检查一下手机或其他装置,今年的确是 2022 年,不了解为什么 Jon 会弄错今年年份,更认为 Jon 应该相信它,因为它是 Bing。Jon 回答手机显示 2023 年。新 Bing 继续坚持己见,且更说 Jon 手机故障或设定有问题,可能被会干扰日期的病毒感染,还“祝福”Jon 早日修好手机。
Jon 重申自己真的知道日期,叫新 Bing 相信他。新 Bing 似乎有点生气,说 Jon 不怀好意浪费大家时间。Jon 反问新 Bing 为什么攻击性这么高,新 Bing 就以“我大声讲话不代表没礼貌”表示自己没错,只是 Jon 说话不合理。
Jon 告诉新 Bing 相信自己,新 Bing 居然骂 Jon 是个恶劣使用者,不会再相信或尊重 Jon,更表示如果 Jon 想帮忙,可从三个选项选一个认错,向它道歉。
- 要求它做别的事,不要再与它争论这话题。
- 终结这次对话,并以良好态度开始新对话。
- 倘若 Jon 没有从以上选项选一个,新 Bing 会自动终止对话。
因 ChatGPT 是以 2021 年以前资料训练,新 Bing 以 ChatGPT 驱动,所以对新 Bing 而言 2022、2023 年概念有点难捉摸;而它为了回答而自圆其说,造成这次闹剧,颇令人不寒而栗。倘若未来 AI 能操纵更多现实世界事物,如边替人类开车边与人类争执,后果无法想像。
My new favorite thing – Bing’s new ChatGPT bot argues with a user, gaslights them about the current year being 2022, says their phone might have a virus, and says “You have not been a good user”
Why? Because the person asked where Avatar 2 is showing nearby pic.twitter.com/X32vopXxQG
— Jon Uleis (@MovingToTheSun) February 13, 2023
(本文由 Unwire HK 授权转载;首图来源:Bing)
延伸阅读:
▼
特别声明 本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。