AI 竟会种族歧视!清大携手跨国团队揭露“医学伦理隐忧”

AI 竟会种族歧视!清大携手跨国团队揭露“医学伦理隐忧”

AI 人工智慧竟会种族歧视?清华大学资工系助理教授郭柏志与麻省理工学院、哈佛大学跨国研究发现,当采用先进的 AI 深度学习演算法来判读 X 光片及电脑断层扫描时,电脑竟会从医学影像分辨出患者是黑人、白人或亚洲人,并影响判断的准确率,但科学家至今还不明白 AI 是如何办到。

郭柏志表示,医界近年大量引进人工智慧,研发医疗机器人、智慧诊疗及医学影像识别技术等,协助医生更快速、准确地诊断,这本该是造福病患的好事,但这项研究揭露其中的隐忧,提醒医界应该注意医疗伦理问题,并消弭引进人工智慧产生的医疗不平等现象。

跨国研究团队横跨 4 国,包括史丹佛大学、多伦多大学与美国地区卫生院,分析超过 20 万位病患的胸部、颈椎、手部 X 光及胸部电脑断层扫描,揭露人工智慧也有歧视问题的惊人真相,这项研究成果最近登上国际顶尖期刊《刺胳针数位健康》。

美国食品药物管理局(FDA)目前已核准医院采用人工智慧辅助判读 X 光片及电脑断层扫描等医学影像,人工智慧的深度学习系统可帮助电脑针对大量资料自我训练,并发展出辨识模型,研究团队发现,人类放射师无法从 X 光片判断出患者的种族,但 AI 却能轻易达成,而且准确率高达 9 成。

AI 竟会种族歧视!清大携手跨国团队揭露“医学伦理隐忧” AI与大数据 图2张

研究团队中一名哈佛大学教授表示,当团队成员称 AI 可以从 X 光片来判断人种,自己简直不敢置信,认为这真的太疯狂,一定是哪里出错,但当越来越多的证据浮现,有团队成员则直言感觉很“恐怖”。

郭柏志表示,团队本来猜想 AI 可能是从骨质密度来判断人种,因黑人的骨质密度高于白人,但后来发现并非如此,以某张手掌的 X 光片,显示 AI 判读人种的重点聚焦在中指与食指的第三指节,团队里也有二、三十年经验的放射科医师,但实在想不出来 AI 是怎么判读出人种。

令研究团队忧心的是人工智慧的种族歧视,甚至可能影响医学影像判读的准确率,郭柏志表示,研究发现白人的医学影像有问题,却没被检查出来的误判率是 17%,但黑人的误判率却高达 28%,相差超过 10 个百分点,而医学影像的误判也会进一步影响急诊、医疗给付等资源分配。

郭柏志强调,原本以为人类才会歧视,电脑应该是最公平的,但没想到电脑也默默地提取人类没教的资讯,包括人种及性别等,因此如何去除歧视,让各族群的医学影像判读都有一致的准确率,成为团队下一阶段要努力的目标。

(首图来源:清华大学)

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。