Google AI 又来放大绝,放射科医生会被取代吗?
▼
据 VentureBeat 报道,Google AI 利用人工智慧系统,借助数千个带有高品质标签的资料库,精准解读胸部 X 光图像。论文已发表在《自然》杂志。
近年来,Google AI 不断将目光投向医疗领域。去年,纽约大学利用 Google 的 Inception v3 机器学习模型检测出肺癌。今年 5 月,Google AI 和美国西北大学医学院的科学家们创建模型,透过筛查检测出肺癌,水准超过了有 8 年经验的放射科医生。
此外,Google AI 曾透过眼部扫描,诊断糖尿病视网膜病变的进展;Alphabet 子公司 DeepMind 的 AI 曾为 50 种眼部疾病推荐合适的治疗方案,准确率高达 94%。
那么,胸部 X 光图像解读是否也可以与人工智慧相结合?
实际上,用机器学习演算法分析胸部 X 光图像,说起来容易做起来难。这是由于在一般情况下,训练演算法所需的临床标签,是透过基于规则的自然语言处理或人工注释获得的,两者往往不一致,且错误较多。同时,仅以图像为依据,很难收集包含大量病例的资料库,并建立一致的、具有临床意义的标签。
近日,为推进 X 光图像分类的目标,Google 的研究人员发现,利用人工智慧模型分析胸部 X 光图像,可检测 4 项指标:气胸(肺萎陷)、结节和肿块、骨折和气腔模糊(树芽征)。在发表于《自然》(Nature)杂志的论文中,研究小组称,经专家独立审查,这个模型已达到放射科医生的水平。
这项最新研究,利用了来自两个反辨识资料库的 60 多万张图像。其一是与印度阿波罗医院合作开发的资料库,包含多年来从各地收集到的 X 光图像。其二是由美国国立卫生研究院发布的 ChestX-ray14 公开图像库,该图像库曾为人工智慧研究提供支援,但在准确性方面存在不足。
综观整个研究,首先,研究人员开发了一个基于文本的系统,提取每张 X 光片的放射学报告并加以运用,为阿波罗医院资料库中超过 56 万幅图像提供标签。为了减少基于文本的标签提取过程中可能出现的错误,并为若干 ChestX-ray14 图像提供相关标签,他们专门招募放射科医生,检查这两个资料库中的约 3.7 万幅图像。
下一步是生成用于模型评估的高品质参考标签。3 名放射科医生以小组合作的形式,审查所有结果,测试资料库图像,并线上讨论解决相互之间的分歧。这项研究的合着者也表示,经由这种方式,原先只能透过放射科医生检测到的结果,也能被准确地辨识并记录下来。
Google 指出,尽管这些模型的准确性总体上达到专家水平,但各个资料库的结果却各不相同。例如,对于 ChestX-ray14 图像,同一放射科医生检测气胸的灵敏度约为 79%,但对于其他资料库,检测气胸的灵敏度仅有 52%。
Google 科学家 David Steiner 博士和 Google Health 技术负责人 Shravya Shetty 均为该论文做了贡献,两人在一篇文章中提到:
资料库之间的差异,证明了建立具有明确参考指标的标准化评估图像库的必要性,方便在不同研究之间进行比较;但同时,将人工智慧和放射科医生各自的优势相结合,很可能是人工智慧应用于医学图像解读的最佳方式。
研究小组已经在开源中创建了 ChestX-ray14 资料库,资料库包含 2,412 个训练、验证集图像,1,962 个测试集图像,总共 4,374 个图像。David Steiner 和 Shravya Shetty 表示,他们希望透过 ChestX-ray14 资料库的判定标签,为以后的机器学习奠定基础,并推动机器学习模型之间的比较,进而更精准地解读胸部 X 光图像。
(本文由 雷锋网授权转载;首图来源:Google AI Blog)
延伸阅读:
▼
特别声明 本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。