医生用 ChatGPT 帮你看病,越来越有必要
▼
如果你向 ChatGPT 倾诉过烦恼,开头它大概会说,很遗憾听见你难过。
当公式重复,你会见怪不怪,甚至觉得它只是应付你。这也是医生无法取代的原因,因能和患者建立真实有效的医病关系。但这不代表 AI 无法对医疗业有帮助,ChatGPT 以意想不到的方式,帮医生打开新世界的大门。
不仅懂得多,还比医生贴心
加州大学圣地亚哥分校进行有趣研究,研究员在社群网站找到 195 个医病问答,喂给 ChatGPT 再交给专家盲测,比较人类和 AI 高下。这些问题各式各样,从“怎么治疗长期咳嗽”到“吞下一根牙签,朋友说我要死了”。
结果让人吃惊到掉下巴。ChatGPT 资讯品质和同理心都打败人类。但专家偏好影响评比结果,ChatGPT 同理心通常显现在对患者的不适感觉抱歉,也不同于人类简短省时风格,回答更长更亲切。
简单例子为问“漂白剂弄到眼睛是否会失明”,ChatGPT 先表达同情,然后说明清洁眼睛步骤。人类医生只说“听起来没什么事”,建议对方冲洗眼睛即可。你可能觉得医生的答案更让你安心,不过这研究无意讨论 ChatGPT 能否取代医生,只是提出一种可能性:ChatGPT 可于远距医疗等担任助手,节省医生问诊的时间。
因 ChatGPT 有胡说八道的毛病,必须由医生最后把关。研究员设想一下医生和 AI 合作的未来:
如果更多患者问题能有快速、高品质和富同理心的回答,可能会减少不必要的临床问诊,为需要的人挪出资源。
不难想像,除了效率,人类与 AI 合作也赋权弱势群体。行动不便、工时长、负担不了费用的患者,可能更需要这种服务。这产品也已出现。5 月纽约健康技术公司 Belong.Life 推出 Dave:世界第一个癌症患者对话式 AI。它只关注癌症,基于两个大语言模型,训练数据包括公司旗下 App 七年数十亿数据。
24 小时待命的 AI,Dave 好就好在全天候回答问题,帮助患者了解病况,方便与医生讨论。
(Source:Belong.Life)
另外,安慰患者、表现同理心,也是 Dave 的“职业操守”。Belong.Life 联合创办人受访时说:
Dave 减轻病患压力,也减少医生教育病患的时间。
Dave 每条讯息都声明由 AI 产生,不是百分百准确,病患真正决定前,必须谘询医生。所以 AI 不能取代医生,但成了医病间的桥。AI 对医生的作用,也像显影照片渐渐清晰。外媒采访几位使用 ChatGPT 的医生,方法五花八门,但或多或少和同理心有关。有的医生透过 ChatGPT 解释医嘱、通知坏消息时,更能整理出好理解的说法,他们半开玩笑说自己用语有时“太高级”:
即使我们认为很容易理解的词,其实常不是那样。
有的医生需定期和酗酒族群沟通,请 ChatGPT 帮忙列出谈话重点,如果病患没有足够医学知识,就让 AI 以小学生阅读水准改写。某医生十分满意 AI 的开场白,这句话乍看平平无奇,但非常真诚:
如果你认为喝了太多酒,你并不孤单。很多人都有这个问题,但有些药物可帮助你感觉更好,让生活更健康、更幸福。
其实很多医生不是不想表达同理心,而是工作压力太大,光应付门诊、远距看诊等就分身乏术,自己也陷入倦怠和疲惫。因此有医生请 ChatGPT 帮忙写信给保险公司,请对方承保自己的病患。这其实是繁重的重复性劳动,甚至要花几小时,但交给 AI 后微调,只需几分钟即可完成,让医生有更多时间做正事。
话说回来,医生对同理心的定义可能和大众不同,且更细节。
(Source:Unsplash)
“认知同理心”是指医生辨识病患情绪,做决定时考虑这些情绪的能力;相对的“情感同理心”,更接近一般人理解的“感同身受”。
《摆脱共情》一书提到类似观点,作者布卢姆大致将共情分为两种:“认知共情”与“情绪共情”。他认为做更佳行为和道德决策,应依赖认知而非情绪共情。同理心微妙复杂,很难划分成楚河汉界,往往同时需要认知和情感同理心。医生这职业既要感性同理病患感受、又要理性展现专业素养,压力难为外人道。如何把握共情程度,对他们来说是件难事。
AI 无法真正感同身受,但给部分病患共情感,或许真能帮医生分担重负。
小心机械共情的陷阱
AI 的“同理心”不全是陈腔滥调,病患也能感觉到。《Wired》报道提到,部分自闭症患者认为,和 AI 交流是很好的体验,因更接近他们的说话和行为模式。自闭症患者病状各不相同,但社交障碍普遍。有些患者和别人争执时,请 AI 建议,努力表达自己的情绪,而不像以前保持沉默。AI 变成新的宝贵独立资源,随时随地可用,不按小时计费。
然而这只是个例,如何用 ChatGPT 帮助特殊族群,还未经过严格研究,没人知道风险有多大。所以 Hugging Face 首席伦理科学家 Margaret Mitchell 建议,有严重情绪困扰的人,应该限制使用 AI。
我们无法完全控制它会说什么,这是个大问题。
不过聊天机器人疗法有迹可循,可追溯到几十年前概念。第一个允许人机对话的程序 ELIZA,诞生于 1960 年代的麻省理工学院,以现在眼光审视,它其实非常粗糙,通常以问题重复用户说的内容,让用户觉得自己好像有被听到,参透人类本质只是读稿机。事实证明,不管如何简单粗暴,人们都需要机器“同理心”,哪怕只是错觉。推出 ELIZA 的目的,是为了证明电脑对人类语言的理解多么肤浅,但它反而吸引大量用户,人们关在房间几个小时,就为了和它说悄悄话。
如今,基于大语言模型的生成式 AI 可更多样性回答,比 ELIZA 聪明多少倍,但也有问题。偏见、假资讯、隐私泄露之外,“ChatGPT”可能让人掉进“机器共情”陷阱,也就是回答某类问题时,只出现重复标准化模式。
心理治疗师 Daniela Marin 试用 ChatGPT 时发现,当和它说“想自杀”,它的答案几乎和教科书一模一样。ChatGPT 知道标准答案,但这毕竟不是考试,Daniela Marin 觉得还不够好。如果是和治疗师聊天,会得到更有意义的回答。
重症监护室医生 Wael Haddara 也认为,同理心有丰富表现方式,不该只有 AI 产生的文字。他每周平均和 30 个家庭打交道,发现当至亲去世,开诚布公的沟通更能减少创伤。同理心不仅是言语,有时候只是沉默递出面纸。不过 ChatGPT 这类聊天机器人,本就是为了通用性设计,OpenAI 也强调,ChatGPT 不该成为心理治疗的替代品。
对人类来说,同理心也很困难
从 ELIZA 到 ChatGPT,机器共情哪怕虚假,仍让人类趋之若鹜。不只医生和病患,需要 AI“同理心”也存在于更广泛的情感和社交关系。透过非人的 AI,人们才能学会怎么和同类沟通。可见人与人无碍交流确实很难。
(Source:Blush)
制作 AI 聊天应用 Replika 公司最近推出新 AI 约会应用“Blush”,受众很明确:希望好好处理亲密关系的人。Blush 像恋爱模拟游戏,用户可和 AI 为基础的不同性格背景 NPC 聊天,和它们建立关系,加强沟通和恋爱技巧。Blush 不仅让你聊到牵手和约会,更会分歧和误解,就像现实生活。
Replika 首席产品长 Rita Popova 强调,Blush 不是取代亲密关系,反而让你提前演练,能安全进入现实世界。
与人交谈,深入了解他们,真的很难,我觉得解决问题的最好方法就是练习。
Blush 提醒人际交往的尴尬之处。很多用户下载,就是因为不知道怎么和人交谈。帮忙预演的 AI 像是镜子,让用户看到自己及别人的交流方式。和 Blush 类似的还有 Tinder 等交友应用软件帮忙出计的 AI 约会助理,如 Rizz 可基于你的语气、对方资料,建议你怎么聊天以给对方留下好印象。如果对方也是用 AI,那可能就是 AI 互相搭讪,你和对方成替身了。
或许有些悲哀,当手机让人忘记怎么写字后,如何透过萤幕和人交流,竟然也像写论文无从下手。这可能是因为,技术既是成因也是解药。雪莉特克尔《群体性孤独》谈到,讯息过载的社群媒体,既给我们有人陪伴的幻觉,又削弱对彼此的期待,无须像现实付出友谊,结果是让人更孤独。
看似更有同理心的 AI 呢?让人锻炼共情和沟通能力,还是彻底依赖它,无心地虚与委蛇?情况复杂又微妙:之前我们认为,需要情感和社交技能的职业,AI 不容易介入,但它正在建立新关系。需要AI 的领域,恰好显示人类的不足,然后提供解决办法。更广泛来说,AI 和时代共鸣,展现社会资讯丰富、但时间和人际关系匮乏的一面。
同样拿社群媒体比喻,缓解短期孤独,但过度依赖只会加剧现实疏离。AI 也类似,应将 AI 当成手段,人才是目的,最终还是要回归人与人的关系。文本交流工具 Keys AI 创办人相信,人们承认自己是藉 AI 交流时,代表努力成为更好的沟通者。我们需要 AI 的“同理心”,不是脱离人与人互动,而是重新想像如何与人互动。
当 AI 将词语以统计规律串起,人类负责赋予这些概念意义,职场和生活与他人建立联系,并关注更重要的事。技术发展以来皆如此,总要在不断变化的社会关系和情感体验,探索如何与他人相连。
(本文由 爱范儿 授权转载;首图来源:shutterstock)
▼
特别声明 本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。