付梓龙赵凯乐牛琼(医院消化内科)
[中国医师进修杂志,,44(4):-.]
近年来人工智能的实用化取得了重大进展,随着计算机运算能力及数据传输速度的提高,人工智能已经开始应用于医疗卫生领域。在结直肠领域,以减少漏诊,提高结肠息肉检出率,鉴别息肉性质为目的计算机辅助诊断模型逐渐趋于实用化。本文对人工智能模型辅助结直肠镜下息肉实时诊断的相关情况作一综述。
近年来,利用人工智能系统进行计算机辅助诊断取得了显著的进展,这其中以卷积神经网络模型为代表的相关人工智能计算机辅助系统发展尤为迅速,已经成功地应用于许多科学技术领域,例如计算机视觉、语音识别、自然语言处理、游戏、粒子物理学、有机化学、生物学等。人工智能在各类医学领域的潜能逐渐显现,在消化道内镜领域亦有许多研究人员使用人工智能计算机辅助系统来提高对各种胃肠道病变的诊断,如结直肠息肉、胃溃疡、幽门螺杆菌感染和胃癌,及早期食管鳞状细胞癌(ESCC)等[1-6]。其中多数研究属于利用静止图片的回顾性研究。然而得益于计算机处理能力提高,多种适用于卷积神经网络模型的回归算法被提出[7]和多种经过预训练的成熟卷积神经网络模型出现[8-10],消化道内镜领域逐渐出现可以在内镜视频中,甚至操作时,实现病变检测和定位的人工智能计算机辅助系统,其中结直肠镜领域有不少研究趋于实用化。随着以医学大数据、云计算、5G网络等为代表的智能化网络化时代的到来,快速发展的人工智能与功能日渐强大的消化内镜,这两者之间的结合必将成为消化道疾病预防、诊断、治疗更进一步的关键点,这必然更能惠及我国广大的人民群众,为提高医疗水平做出相应的贡献。因此,为了让内镜医师更好地了解当前结直肠镜下与息肉实时诊断相关人工智能计算机辅助系统的实用化水平,我们对当前接近实用化的有关人工智能计算机辅助系统进行相应介绍。在PubMed上检索了年5月30日以前发表的与人工智能相关的消化道内镜实时诊断系统的出版物,使用“artificialintelligent”or“AI”“endoscopy”“real-time”进行了主题词检索,经后续筛查后共计发现7篇利用人工智能模型辅助结直肠镜下息肉实时诊断的论著类文献[11-17]。这7篇文章所介绍的计算机辅助诊断系统,其中6个利用卷积神经网络算法训练而成,1个利用支持向量机算法训练——支持向量机算法构架与卷积神经网络不同,但也可对数据进行二元分类,在上世纪末得到快速发展并衍生出一系列改进和扩展算法,故在人像识别、文本分类等问题中得到应用。在下文中将7个人工智能计算机辅助系统分别称为卷积神经网络模型及支持向量机模型,这些系统(在相关术语中亦常被称作模型)的准确性均达到95%左右,虽存在一定较低的假阳性率,但其假阴性率往往为零。上述人工智能计算机辅助系统均在病变分型指南、统计学及流行病学指导下[18-21],以提高结直肠镜内镜检查效益为目的而开发。
一、模型构建中的普遍特性
这些模型的构建大多具有一定共同性:(1)用白光、窄带成像、放大内镜、病变染色处理后的内镜图片训练模型。它们中为了提高模型的准确性或适用性,会用两种甚至两种以上内镜图片进行训练。(2)内镜图片来源各种型号的奥林巴斯和/或富士康的消化道内镜,故其产生的图片、视频存在像素差异,甚至是格式差异,影响模型的普适性。(3)其中卷积神经网络模型输入端对图片像素可能存在要求,因为图片像素会与模型准确性与运行速度相关,故有些模型会对输入图片进行预处理以达到适合于该模型的最适标准。(4)为了更好地利用图片所含的特征信息,同时提高模型准确性并加强其鲁棒性(鲁棒性三个层面的概念[22]:一是模型具有较高的精度或有效性,这也是对于机器学习中所有学习模型的基本要求;二是对于模型假设出现的较小偏差,只能对算法性能产生较小的影响;三是对于模型假设出现的较大偏差,不可对算法性产生“灾难性”的影响),会将原图片进行角度变化后,一同作为卷积神经网络模型输入数据。当然这种操作必然导致模型延迟时间的增加。(5)合理的图片处理速度及较低的模型延迟时间是实现人工智能计算机辅助系统临床实用化的关键之一,这也建立在性能良好的硬件设备之上,是评估一个模型(或系统)实现实时功能的一部分。(6)当连续数帧图片被预测为病变,且每帧单独预测病变存在的概率达到相应数值后,该部位即被定义为病变,并在视频或显示器中定位出病变的范围。
二、模型构建的出发点
在所有癌症死亡中由结直肠癌所致的死亡在全球范围内处于前三位[23-25]。定期结直肠镜检查和切除腺瘤性息肉可以有效预防结直肠癌发生[19]。因此进行结直肠镜检查是必不可少的:(1)为了最大限度地提高结直肠镜检查的效益和成本效益,建议切除≥5mm外的所有结直肠息肉。对于那些小型息肉(≤5mm),美国胃肠内镜学会在其第二次内镜创新宣言(PIVI-2)中提出使用先进的内镜成像来检测微小的、肿瘤性的病变,即进行光学诊断,也称为光学活检:从内镜图像获得定性的组织学信息,进行光学诊断后对于微小腺瘤病变可以在没有病理评估的情况下被切除和丢弃,或者位于结肠远端的增生性息肉可以不给予切除[19]。标准化是光学诊断的一个主要问题,有证据表明,一个简单的窄带成像分类系统——窄带成像国际结直肠内镜分类(NICE),可以用于区分增生性和腺瘤性息肉(包括小息肉)[26]。NICE分类方案旨在使训练有素的内镜医生能够在没有光学放大情况下的常规窄带成像内镜中,通过识别视觉暗示,如颜色、血管的存在和表面图案,对息肉的组织学性质进行辨别[26]。当然NICE分类并不是十全十美的,例如,它没有解决无柄锯齿息肉的问题。(2)结直肠镜检查中存在的漏诊是导致结直肠镜后仍有结直肠癌发生的最主要原因[20],故结直肠镜检查预防结直肠癌的益处取决于腺瘤检出率,有研究表明腺瘤检出率每增加1%,结直肠镜后结直肠癌发生率可降低3%,甚至可降低6%[21,27]。当前人工智能表现出有助于辅助鉴别小息肉性质、减少结直肠镜检查中的漏诊,并减少内镜医师之间技能差距的潜力。
三、模型构架、训练及性能
1.小息肉(≤5mm)性质的光学诊断:年,Byrne等[11]使用未经处理的窄带成像视频中原始的图片训练了基于DCNN初始网络架构的卷积神经网络模型,当该模型在窄带成像视频中捕获清晰单个息肉的近焦图片后,通过运用NICE分类可以实现对该息肉的光学分类并立即输出增生性或腺瘤性息肉的概率。在由包含个小息肉(51个增生性息肉和74个腺瘤)的长度10~20s的40段视频所构成的检验集中,模型准确率达到94%。年,有报道基于支持向量算法构建了一个在结直肠镜检查过程中使用的人工智能计算机辅助模型,模型算法有三个主要步骤:特征提取、分类和病理预测,该人工智能计算机辅助模型可实现息肉病理性质的自动预测[14]。安装了人工智能计算机辅助系统的计算机可被直接连接到内镜主机上,当内镜医师对病变完成体内微血管评估、窄带成像模式和显微放大模式、染色模式(1.0%亚甲蓝)观察后,即可以手动开启全自动化的实时诊断。Mori等[12]的人工智能计算机辅助系统,在评估来源于例患者的例(包括例直肠乙状结肠)小息肉中,其病理预测率为98.1%。年10月,Zachariah等[16]开发了一个基于光学病理的卷积神经网络模型。该模型基于谷歌Inception-ResNet-V2算法利用TensorFlow在ImageNet数据库基础上以六千多张已知病理(包括腺瘤性息肉与锯齿状息肉)、位置、大小、光源(白光或窄带成像)、来源于不同三种型号内镜的高质量结直肠息肉图像训练而成,并在张未用于模型训练的息肉图像中进行了独立验证。Zachariah等[16]开发地用于识别腺瘤和锯齿状息肉的卷积神经网络模型,其总体准确率为94%且其性能不受使用白光或窄带成像的影响,在直肠乙状结肠的小息肉中,腺瘤的阴性预测值为97%,在整个结直肠的小息肉中,光学病理和真实病理之间的监测间隔一致性为93%,独立验证时达到94%。均超过美国胃肠协会内镜创新宣言(PIVI)提出的“诊断和离开”“切除并丢弃”需要达到的阈值(>90%)[25]。
在年,美国胃肠内镜学会进行了一项Meta分析,评估了内镜医师利用NICE分类达到PIVI标准的能力[28]。总体上,腺瘤的阴性预测值为91%,但监测间隔仅为89%。内镜医师的表现取决于业务背景(社区医师和内镜协会成员)、医师经验(新手和经验丰富的内镜医师)和信心水平。例如,来自内镜协会的专家内镜师可以达到95%的阴性预测值、93%的监测间隔,而接受过NICE分类标准培训的社区医生往往无法达到PIVI所要求的阈值[29-30]。
2.结直肠息肉的诊断与定位:年6月,Urban等[13]以优化后的VG-19+“YouOnlyLookOnce”回归算法训练的卷积神经网络模型在结直肠镜视频中对息肉的检测和定位有不俗的表现。其中在对已经被切除了28个息肉的结直肠镜视频(共计20个视频,累计时间为5h,约50万帧图片)的分析中,4名内镜医师专家在没有卷积神经网络模型协助下发现了8个未被切除的息肉,然后在卷积神经网络模型协助下发现了另外17个息肉(总共45个)。由卷积神经网络模型检测到的息肉经专家评审鉴定后,得出该卷积神经网络模型的假阳性率为7%。年2月,Wang等[14]对一个提高结直肠镜下息肉及腺瘤检出率的实时自动检测系统进行了前瞻性对照性验证,该人工智能计算机辅助系统中的卷积神经网络模型于年训练完成,该卷积网络模型基于可以实现目标检测与定位的SegNet卷积神经网络模型[9]训练而成。在Wang等[14]的初步研究中,验证了该卷积神经网络模型灵敏度为94.38%,特异性为95.92%。经过前瞻性对比验证,使用了实时自动检测人工智能计算机辅助系统进行辅助的试验组内镜医师较对照组其腺瘤检出率增长6%,其中小腺瘤(≤5mm)的腺瘤检出率占增长的主要部分。年9月,Yamada等[15]利用卷积神经网络技术开发了实时结直肠镜图像诊断人工智能支持系统,希望减少内镜医师在结直肠镜检查技能方面的差距,提高腺瘤检出率。为了在内镜视频图像中检测病变,该人工智能诊断系统是基于残差卷积神经网络(R-CNN)模型[8]训练而成,R-CNN模型由一个用于病变检测的分类模型和一个用于病变定位的回归模型组成。Yamada等[15]的人工智能系统可以实时地从结直肠镜设备中捕获内镜视频,同时对每一帧图像(30帧/s)进行详尽的分析,并在0.03s内完成检测和显示结果;该人工智能辅助诊断系统分析验证集中的幅图像花费.0s(21.9ms/幅),而与之对照的内镜医师分析幅图像则需要.2s(2.4s/幅);该人工智能辅助系统在图片与视频验证中其准确性均达到95%以上。年Repici等[17]对由美敦力公司开发的名为Gi-Genius的卷积神经网络人工智能系统(Gi-GeniusAI)进行了多中心的前瞻性临床实验。Gi-GeniusAI使用例患者的高质量内镜视频进行训练,视频中包含个经过组织学证实的息肉或腺瘤病变,该系统敏感性为99.7%,假阳性为0.9%。Gi-GeniusAI可直接嵌入现有电子内镜主机中,直接获取内镜视频的原始数据流,并直接将预测结果展示在内镜显示屏中,实现病变分类和定位功能。同时该系统只有(1.52±0.08)μs的延迟,这并不会被内镜医师的肉眼所感知,因此允许实时评估[31]。Repici等[17]分析了例受试者(试验组例,对照组例),在结直肠镜检查中添加实时人工智能计算机辅助系统即可使结直肠镜检查的腺瘤检出率和结直肠镜平均腺瘤数相对增加30%和46%。这主要是通过检测到更多的≤5mm或6~9mm的息肉及扁平息肉所实现,同时添加系统后并不增加非肿瘤性病变的切除数量及退镜的时间。因此,在不影响结直肠镜检查效率情况下,在内镜操作时加入该实时人工智能计算机辅助系统可使腺瘤检出率和结直肠镜平均腺瘤数获得实质性提高,这将会提高结直肠镜检查的质量。
四、人工智能模型与结直肠镜的更多协同性
人工智能计算机辅助系统可以全面分析整个内镜过程中的每帧图片,这将弥补人类视觉障碍的局限性。假如在一些具有更宽视野的内镜中[32-35]——视野可高达°[35],应用这些人工智能计算机辅助系统可能实现更高的效能。虽然这些系统目前只局限地运用于某种类型的结直肠镜检查中,但是因为卷积神经网络模型往往具有很高兼容性,因此不能排除在其他内镜环境中这些人工智能计算机辅助系统可能仍具有良好性能。有研究表明在息肉检测时蓝基色内镜可以与其训练的卷积神经网络模型产生协同作用[31]。国内有研究表明,放大内镜联合窄带成像技术在消化道早癌诊断的分类系统、病理类型、病灶边缘及浸润深度等方面具有较高的应用价值[36],因此人工智能计算机辅助系统与先进内镜之间的相互结合,或将产生出乎意料的效果。
人工智能计算机辅助系统和内镜医生相似,在准备不充分的结直肠镜检查中漏诊率往往会增加。因此,足够的清洁水平,超过6min的退镜时间和良好的退镜技术仍是最大限度地提高人工智能计算机辅助系统性能的先决条件[37]。上述研究多围绕如何提高腺瘤检出率展开,而在早期结直肠癌筛查流程方面,国内已有相关共识[38],其就结直肠镜初筛的质量控制方面达成一致,主要有:(1)合格的肠道准备比例应≥90%。(2)盲肠插镜率≥95%。(3)退镜时间≥6min。(4)腺瘤检出率。(5)阳性结直肠镜平均腺瘤数,同时有研究发现相比于腺瘤检出率,阳性结直肠镜平均腺瘤数与晚期腺瘤的错过率具有更强的相关性[39]。有报道实时自动质量控制系统,可实现结直肠镜检查过程中的实时计时、实时监督退出稳定性、实时评估肠道准备情况的功能,从而增加检查过程中息肉和腺瘤检出率,进一步在临床实践中提高结直肠镜检查质量、质量控制效率[40]。同时,内镜精灵系统也可以实现相似的功能[41-42]。
总而言之,虽然上述所有研究中有不少存在样本量偏少,未进行大规模验证等不足,但是上述人工智能计算机辅助系统的运用有望提高腺瘤性结直肠息肉的检测率和结直肠镜检查的质量,可以减少腺瘤漏诊率、缩小内镜医师技能差距,并实现结直肠息肉性质的内镜下光学诊断。这将更加合理地分配医疗资源、惠及广大人民群众,使患者在结直肠镜检查中获得更多收益。相信随着人工智能领域技术的不断突破与创新,在消化道内镜领域将会出现具有多种功能的、高性能的、综合类的人工智能计算机辅助系统,届时消化内镜领域必将进入一个崭新的时代。
参考文献(略)
《中国医师进修杂志》