《Nature》子刊提出AI病理诊断解释方案,或解决人工智能CFDA三类申报获批关键难点

动脉网
关注

AI可解释性的研究

正如前文所示,该系统通过扫描器网络、诊断器网络、聚合器网络,对AI辅助诊断的可解释性进行了探索,最终会产生说明文字同ROI同步输出。

可解释性图示

如上图,a、b显示的为全片肿瘤检测结果,c、d、e则为生成的“特征感知注意图”,对诊断细节进行描述。我们可以看到,针对每一张切片,系统在判读后,除了常规地将ROI区域框选出来,还针对不同区域生成了解释性文字。

其中,不同特征的文字被使用不同颜色加以区分,而该描述所对应的ROI,都被加以相同颜色的框表示,便于病理医生查看时一一对应。

该系统描述了观察到的一定数量的细胞特征以及特征感知注意图,注意图对网络观察到的视觉信息的类型给出了强有力的解释(图c-e)。实际上,注意图包含了框选区域中每一个像素的权重,用以确定不同像素对于给定的特征观察的重要程度,但输出的内容却并不是令人费解的数值,而是类似于病理医生的判读依据。

这样专业化的文字表述加强了AI分析病理切片的可信度,当人类医生与机器诊断结果不符时,医生们也能够更容易地对比自己与机器的诊断意见到底在何处有所区别,了解产生区别的原因,在很大程度上能够提高诊断准确度。

系统网络组件的评估

在算法结构方面,算法的各部分性能在完成后均被予以验证。

首先,研究人员评估肿瘤和非肿瘤图像的s-net的肿瘤检测召回率(非肿瘤图像表示内部没有突出肿瘤的裁剪的滑动组织区域)。s-net达到94%的高真阳性(检测到的肿瘤像素数/总注释肿瘤像素)并同时维持95.3%的阴性召回率。

其次,研究人员使用了两个评估指标验证了生成的诊断描述的质量:双语评估Understudy(BLEU)和基于共识的图像描述评估(CIDEr)。而这些验证结果显示,该算法已经具备了一定的优越性。

此项实验突破了AI病理三类证审批的关键难点

囿于其决策流程的不可解释性,“深度学习”一直被遵循循证医学指南的临床医生拒之门外,成为了制约医学影像人工智能发展,特别是获得三类证审批的关键。

而本次实验则为人工智能的审批提供新的思路:虽然现阶段的人工智能仍不具备推理能力,但我们能将医生的推理步骤模块化,从而模拟推理的过程。此外,本次实验中的文字匹配过程是按照WHO标准并具有严格依据的,这与许多基于多样本深度学习生成的勾画不同,实验的每一个步骤都可由AI提供决策依据,并非单纯概率云下的黑箱运算。

杨林教授现任职于迪英加CEO,这是迪英加科技在三类证申报过程中的一步坚实工作,用于解决CFDA三类证申报中广泛要求的可解释行提供了关键的核心技术解决方案。

在采访过程之中,杨林教授也对本次实验的不足之处进行了总结。首先,由于时间的原因,样本的选择检测本身具有一定的封闭性,随着持续数据收集的广度和深度的提升,论文中的工作也一定会有改进之处。

其次,推理流程的划分是否足够细致,以及推理过程是否存在偶然性可以进一步论证。

最后,这项研究没有控制参与病理医师的疲劳程度,这可能是影响AUC的独立因素,需要进一步研究这一系统对不同疲劳水平医生的有效性。

总的来说,无论是人工智能技术,还是本次实验的病理本身,我们都能看到很多突破的可能。目前的人工智能影像产品仍聚集于放射科,当他们尝试进一步进入临床相关科室时,这项技术同样需要新的标准对其进行验证。

此外,AI于病理的运用也远不局限于切片识别,机体组织样本中内部特征的量化分析与临床评价;细胞和动物组织样本的量化分析与药效关系;细胞识别与分选;特殊染色结果的量化分析和临床治疗与预后也均有AI介入研究。病理于AI是一片看不见的深海。

文 | 赵泓维

网站、公众号等转载请联系授权

声明: 本文系OFweek根据授权转载自其它媒体或授权刊载,目的在于信息传递,并不代表本站赞同其观点和对其真实性负责,如有新闻稿件和图片作品的内容、版权以及其它问题的,请联系我们。
侵权投诉

下载OFweek,一手掌握高科技全行业资讯

还不是OFweek会员,马上注册
打开app,查看更多精彩资讯 >
  • 长按识别二维码
  • 进入OFweek阅读全文
长按图片进行保存