AI 下棋很强,治病则要再等等
▼
仅在美国,每年有成千上万的患者死于可治愈的心脏病,但因无法及时发现问题,导致临时出现状况时心脏骤停,而 AI 可解决提前预测的问题。
美国使用 AI 改进心脏病治疗方法的核心人物之一 Mayo,过去 3 年和团队发表超过 20 项关于心脏病学 AI 的研究,并在数十家保健诊所现场测试演算法。
▲ 梅奥诊所(Mayo Clinic)。
这些正在开发的演算法,能在手术前侦测心脏功能的细微差别,预测心脏异常和即将发生的疾病。
这只是 AI 可在医疗保健发挥重大价值的其中一面。
随着 AI 工具进入医疗保健产业越来越多,未来能执行的工作包括接听电话、病理审查、人口健康趋势和分析、治疗药物和装置设计、阅读放射影像、制定临床诊断和治疗计划等,甚至还能和患者交谈。
(Source:NetApp)
而现在 AI 已为医疗带来显而易见的好处。
MIT Technology Review 透过访谈 900 多位医疗保健专业人员,发现 AI 已用来改善资料分析、更佳的治疗诊断及减轻管理负担。
报告显示,AI 让临床医生有更多时间执行其他工作,以及为患者提供越来越多个性化自订的最佳护理。
8 月发表的研究,Mayo 表示,预测心脏病的演算法已能以 80% 准确率辨识有心房颤动的患者。
▲ 团队成员 Friedman 读取患者的心电图检查结果。
除了临床医生,AI 技术还为其他营运、研究人员及患者带来很多便利之处。后方的医生能做笔记、更新电子健康纪录等更多行政工作,且 AI 越多,医生花在电脑的时间就越少。
相关研究人员还能加快开发新药物治疗的速度并降低成本,透过利用分析挖掘以前未开发的重要未编码临床资料储存,个性化设定医疗。患者也能加强己身护理,透过应用程式与医生互动,并简化获得护理的流程。
但同时,任何新事物都必须经历双面试炼。
越来越多 AI 实验,都是“快速尝试,然后快速失败,未来再修正”公式,当 AI 产品进入现实,检查结果容易让人失望,因为大部分产品都没有足够资料和成果支撑。
在医疗保健使用,风险就更大了。
AI 风口下,很多研究结论常常夸大,不仅因大众关注度很高,据研究公司Gartner 7 月的报告,仅今年第三季,医疗人工智慧就吸引 16 亿美元风投资金,几乎达到虚高预期的顶峰。
但《欧洲临床研究杂志》1 月文章指出,很少有科技新创公司在同行评审的期刊发表研究。还有业界分析人士指出,很多 AI 开发人员对昂贵耗时的试验根本没有兴趣。
尽管软件开发人员还是会夸耀 AI 装置的准确性,但他们的 AI 模型事实上大部分只在电脑测试,而不是在医院或其他医疗机构进行。
《深度医学:人工智慧如何使医疗保健再次成为人类》作者 Topol 也表示:美国出售的 AI 产品都没有经过随机临床试验测试。事实上,大多数 AI 装置根本都不需要 FDA 批准。
这就表示,让未经验证的软件进入市场,患者就像不知情的小白鼠。
不过西雅图艾伦 AI 研究所首席执行长 Oren Etzioni 表示,AI 开发人员有足够的经济动机,确保医疗产品安全。
如果 AI 产品快速失败,意味着很多人死亡或受严重伤害,没有人愿意看到这情形,包括投资者。
但 AI 系统本身依然是“黑盒子”,开发人员也不清楚资料如何运算最终得出结论。
史丹佛大学生物医学伦理学中心的儿科学教授 Mildred Cho 表示,AI 系统有时会根据与疾病无关的因素预测,这会导致提前预测的结论错误,同样也会耽误病情治疗,且如果医生以此为据,也可能有不必要的检查或误判。
加拿大某公司曾开发 AI软件,能根据讲话预测一个人是否有老年痴呆症的风险。结果发现 AI 判断出很多异常,因为系统认为老人没有讲对单词,但事实上,后来才知道是因为老人很多不懂英语,而不是由于认知障碍。
同时,医疗服务机构和患者之间产生的不信任感,以及人们对隐私泄露的恐慌感,也是挑战之一。
但这并不代表要对医疗保健业的 AI 研究适可而止。
正好相反,要鼓励研究人员进行更创新的开发,以及更实际的实验,未知风险要严格处理。对医疗机构来说,无论有没有 AI 介入,都要尽可能保证患者的安全。
每个身处其中的人,需要谨慎辨别所有新事物,切勿病急乱投医,无论健康或其他方面,保护好自己的权益。
(本文由 爱范儿 授权转载;首图来源:shutterstock)
▼
特别声明 本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。