你的观点,真的不是 AI“灌”给你的吗?

你的观点,真的不是 AI“灌”给你的吗?

我们和工具的关系,从来都不只“使用”和“被使用”。

虽然 ChatGPT 让更多人关注 AI 潜力,但融入 AI 的工具我们都用很久了。然而我们对工具影响人,研究认知还是偏少。不少人知道社群媒体推荐演算法,不仅让手机“越来越好滑”,同时也以“猜你喜欢”将使用者卷入资讯茧。

自动纠正拼写、自动回复邮件、产生 PPT 的 AI 工具,你也许会觉得指挥它们工作,但这些工具真没有想像的“中性”。

写着写着,你就被说服了

越来越多研究指出,AI 工具在人们没意识下改变人们想法。最新研究指出,被研究物件用 AI 帮忙写论文,AI 会根据自身偏见,推动研究对象写出支援或反对特定观点的论文。同时,写论文过程也会大幅影响使用者对话题的看法。

康奈尔大学 Mor Naaman 将这称为“隐性说服”,并表示人们“可能根本不知道自己被影响”。AI 虽然让人更高效,但也会潜移默化改变人的观点。且 AI 改变人的方式更像合作和社会活动改变说服另一个人,没那么像社群媒体对我们的影响。

另一份研究针对 Gmail 智慧回复功能。AI 帮助人更积极回信,用户交流更积极。第二个研究指出,自动回复,也让接收者认为发信者是好人和更愿意合作。

考虑到微软和 Google 等都将 AI 融入各办公软件,AI 对人的影响也近在咫尺,最坏状况下,掌握权力和技术的人能透过看似无害、又能提高生产效率的工具推动和影响人们对特定事物的态度。

和社群媒体推荐演算法、过滤泡泡和兔子洞外相比,最有趣的地方在于“隐密性”。

发现这状况的研究员认为,最佳防御法是让人们意识这问题存在。更长期看,管制要求 AI 保持透明也是另一种方式──让使用者知道特定 AI 偏见是什么。哥伦比亚大学教授 Lydia Chilton 指出,当人们了解 AI 有什么偏见,并自己选择这偏见可用,决定何时用,人们就会重新获得自主性。

是“偏见”也是“目标观”

AI 无“价值观”,但因训练素材和调教者有价值偏好,所以 AI 有偏见。研究人员认为,偏见某些程度能帮助我们了解特定群体对特定事件的态度,然而利用前要先研究清楚 AI 偏好是什么。

Tatsunori Hashimoto 博士和同事想到个方法──让 AI 做问卷调查。

Hashimoto 团队让 AI 做皮尤研究中心民意调查问卷,并将 AI 结果和皮尤调研群体对比,找出特定 AI“偏见”和什么群体更相似。研究发现,OpenAI 语言模型(非最新版)的“偏见”并不符合大部分美国群体观念,而更接近大学生。可能因这群体最有可能负责类似语言模型调整,所以语言模型也更能反映这群体的观念。

哥伦比亚大学教授 Lydia Chilton 认为,当人们看清 AI 背后的“偏见”立场是什么,不仅可避免被“隐性说服”影响,也更能利用工具。如销售可专门打造主攻销售的 AI 助理,目标就是要卖出商品;客服部门也可打造服务型 AI 助理,目标是让客人开心。人们也可用特定 AI 让自己有特定表达方式(或心中理想表达方式):

我觉得要一直表现兴奋、用快乐的语气说话好累。通常咖啡因有点帮助,现在 ChatGPT 也能帮忙了。

(本文由 爱范儿 授权转载;首图来源:shutterstock)

延伸阅读:

  • 白宫提出人工智慧权利法案,以减少可能应用伤害

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。