您的位置:首页 >知识精选 >正文

人工智能未能通过放射学资格考试

摘要 BMJ圣诞刊上的一项研究发现,人工智能 (AI) 目前无法通过一项合格的放射学考试,这表明这项有前途的技术尚未准备好取代医生。AI 越来越

BMJ圣诞刊上的一项研究发现,人工智能 (AI) 目前无法通过一项合格的放射学考试,这表明这项有前途的技术尚未准备好取代医生。

AI 越来越多地用于医生执行的某些任务,例如解读 X 光片(X 光片和扫描片)以帮助诊断一系列疾病。

但是,AI 能否通过英国皇家放射科学院院士 (FRCR) 考试,英国学员必须通过该考试才能获得放射学顾问资格?为了找出答案,研究人员将市售 AI 工具的性能与 26名放射科医生(大多数年龄在 31 至 40 岁之间;62% 为女性)进行了比较,他们都在前一年通过了 FRCR 考试。

他们开发了 10 个“模拟”快速报告考试,这些考试基于构成资格 FRCR 考试的三个模块之一,旨在测试考生的速度和准确性。

每个模拟考试包括 30 张射线照片,其难度和知识广度与真正的 FRCR 考试相同或更高。要通过考试,考生必须在 35 分钟内正确解读 30 张图像中的至少 27 张(90%)。

人工智能候选人接受过培训,可以评估多种情况下的胸部和骨骼(肌肉骨骼)射线照片,包括骨折、关节肿胀和脱臼以及肺部塌陷。

考虑到与 AI 候选人未受过训练的身体部位相关的图像,这些图像被认为是“无法解释的”。

当无法解释的图像被排除在分析之外时,AI 候选人的平均总体准确率为 79.5%,并通过了 10 项模拟 FRCR 考试中的两项,而普通放射科医生的平均准确率为 84.8%,并通过了 10 项模拟考试中的四项。

AI 候选人的敏感性(正确识别患有疾病的患者的能力)为 83.6%,特异性(正确识别无疾病患者的能力)为 75.2%,而所有放射科医师的特异性分别为 84.1% 和 87.3%。

在超过 90% 的放射科医师正确解读的 300 张射线照片中,有 148 张是 AI 候选者在 134 张 (91%) 中正确,在其余 14 张 (9%) 中错误。

在 300 张射线照片中,有 20 张超过半数的放射科医生解读错误,AI 候选者有 10 张 (50%) 错误,其余 10 张正确。

有趣的是,放射科医生稍微高估了 AI 候选人的可能表现,假设它的平均表现几乎与他们自己一样好,并且在 10 次模拟考试中至少有 3 次表现优于他们。

然而,事实并非如此。研究人员表示,“在这种情况下,人工智能候选人无法通过 10 场模拟考试中的任何一场,因为其评分标准与人类同行的标准相似,但如果得到特别豁免,它可以通过两次模拟考试。 RCR 排除未经训练的图像。”

这些是观察性发现,研究人员承认,他们只评估了一种人工智能工具,并使用了没有时间或监督的模拟考试,因此放射科医生可能没有像在真实考试中那样感到尽最大努力的压力。

尽管如此,这项研究是放射科医生和人工智能之间更全面的交叉比较之一,提供了广泛的分数和结果供分析。

他们补充说,强烈建议进行进一步的培训和修改,特别是对于人工智能认为“不可解释”的情况,例如腹部X 光片和中轴骨骼照片。

人工智能可能会促进工作流程,但人工输入仍然至关重要,研究人员在相关社论中指出。

他们承认,使用人工智能“在进一步提高效率和诊断准确性以满足一系列医疗保健需求方面具有尚未开发的潜力”,但表示适当地这样做“意味着让医生和公众更好地了解人工智能的局限性,并使这些局限性更加透明。 “

他们补充说,这一主题的研究很热门,这项研究强调了放射学实践的一个基本方面——通过执业许可所必需的 FRCR 考试——仍然受益于人情味。

版权声明:本文由用户上传,如有侵权请联系删除!