人工智能在胃疾病中的应用及展望
2022-05-28王冬燕华翼飞张国新
近年来,人工智能利用深度学习和卷积神经网络已经成为一种突破性的计算机技术。目前已经发表了大量学术报告,用人工智能来识别和区分皮肤病学、放射学、神经学、骨科、病理学、眼科学、胃肠病学各个医学领域的图像
。其实,人工智能在20世纪50年代就已经被提及。虽然人工智能在过去60年内起伏不定,看起来似乎没什么进步,但它不断被应用于医学领域,使用各种机器学习模型,包括贝叶斯推理、决策树、逻辑回归、人工神经网络等
。
在大数据时代,海量的数字图像和医疗记录推动着对利用人工智能处理这些数据的需求,这些数据就是机器自我学习的基本资源。随着图形处理计算能力的提高,可以克服传统机器学习的限制,特别是对输入数据的过度拟合,导致人工智能的再次复兴,特别是在使用深度学习时。深度学习是机器学习的一种新形式
。在几种深度学习方法中,卷积神经网络由多层人工神经网络组成,经过逐步最小处理,在图像分析中表现出优异的性能
。胃镜、胶囊内镜、肠镜、超声等设备的人工智能已逐渐应用于临床
。人工智能的快速发展要求消化内科医师了解人工智能的优势和缺陷。以下就人工智能在胃疾病中的应用作一综述。
该竹栽培品种已于2017年12月通过了国际竹类栽培品种登录权威的新品种国际登录认证,国际登录号:No. WB-001-2017-024;活体保存地:国际竹类栽培品种(中国·成都)登录园;命名范式保存地:国际竹类栽培品种登录中心(ICRCB)[5]。
1 胃镜检查盲区监测
国外Takiyama等
构建了卷积网络模型,可以识别胃镜图像的解剖学位置,胃和十二指肠的
为0.99,这个模型还能识别上胃、中胃、下胃的解剖学位置,
为0.99。国内武汉大学消化内科利用WISENSE系统
进行胃镜检查的盲区监测,WISENSE系统是一个实时的质量改进系统,WISENSE组的盲点率低于对照组(5.86%
22
46
,
<0.001),有利于提醒内镜医师进行全面细致的观察。
2 识别胃癌癌前病变
由于晚期胃癌5年生存率较低,所以早期识别胃癌癌前病变很重要。浙江大学团队使用卷积神经网络对胃癌癌前病变进行识别,并提出新的算法——迭代强化算法,使精度提高到88.9%
,帮助医师更高效地识别胃癌癌前病变,降低漏诊率。
2.2时间分布2011~2016年各月均有病例报告,发病数差异有统计学意义(c2=32.518,P<0.05)。发病有明显的季节性,4月后病例逐渐增加,主要集中在5~10月,共报告病例3184例,占发病总数的68.59%;6、7、8月为发病高峰,共报告病例数1945例,占发病总数的41.90%,9月后发病数开始下降;1、2、3、12月发病数最低,共报告病例867例,占发病总数的18.68%。见图2。
3 识别幽门螺杆菌感染
糖尿病对中枢神经系统的损害也表现在神经递质上。在糖尿病动物实验模型中,神经递质特别是单胺类神经递质的结合和代谢是异常的。大脑中多巴胺受体数量显著增加,而多巴胺的亲和力降低,递质传递受到抑制,导致多巴胺能神经活动降低。而且在胰岛素治疗后,多巴胺受体数量尽管恢复正常,但多巴胺代谢仍不能完全恢复正常[9]。
幽门螺杆菌感染是消化性溃疡和胃癌最重要的危险因素。目前有几位研究人员测试了人工智能来帮助内镜诊断幽门螺杆菌感染。2004年,Huang等
利用内镜图像中相关的胃组织学特征,通过神经网络精细化特征选择,研究了幽门螺杆菌感染的可预测性。利用了30例患者的84个图像参数对该模型进行训练和分析。检测幽门螺杆菌感染的灵敏性为85.4%,特异性为90.9%。此外,该模型识别胃萎缩、肠化生和预测幽门螺杆菌相关性胃炎的严重程度的准确率高于80%。最近,两名日本研究人员报道了应用卷积神经网络诊断幽门螺杆菌感染
。Itoh等
开发了一种卷积神经网络模型,在对之前的149张图像进行数据增强后,使用596张内窥镜图像识别幽门螺杆菌感染。结果表明,该模型的灵敏性和特异性分别为86.7%和86.7%。Shichijo等
比较了卷积神经网络和23名内窥镜医师使用内窥镜图像诊断幽门螺杆菌感染的性能。卷积神经网络模型具有较高的灵敏性(88.9%
79
0
)、特异性(87
4
83
2
)、准确性(87
7
82.4%)和较短的诊断时间(194 s
230 s)。2018年,Nakashima等
进行了一项前瞻性的试点研究,使用图像增强内窥镜(如蓝激光成像-明亮彩色联动成像)自动诊断幽门螺杆菌感染。所建立的人工智能模型在蓝激光成像-明亮彩色联动成像训练(
分别为0.96和0.95)下的表现明显高于白光成像训练(0.66)。
4 识别胃肿瘤
尽管许多研究人员已经调查了人工智能的效用并显示了令人振奋的结果,但大多数研究都是以回顾性方式设计的:作为单中心的病例对照研究,或使用从许多机构无法获得的特定内镜模式中选择的内镜图像。在这种情况下,不能排除选择偏差等固有偏差。因此,在人工智能应用于实际临床实践之前,仔细验证人工智能的性能至关重要。为了正确验证人工智能的准确性,医师应该了解过度拟合和频谱偏差(类别不平衡)对人工智能性能的影响,并试图通过避免这些偏差来评估性能。虽然在深度学习模型的开发中使用了几种方法来减少过拟合,但它们并不能保证这一问题的完美解决。此外,通过病例对照设计收集的数据集易受到光谱偏差的影响。当用于模型开发的数据集不能充分代表将应用于临床实践(目标人群)的患者范围时,就会出现光谱偏差
。由于过拟合和频谱偏差可能导致对准确性和概括性的高估,因此,必须使用未使用的数据集进行外部验证,以最小化频谱偏差的方式收集数据集进行模型开发。为了获得证据等级更高的临床数据,需设计完善的多种心前瞻性研究。此外,深度学习技术由于其“黑箱性质”,导致决策机制没法进行清楚的展示,即结果解释性不足。可解释性很重要,因为它可以提供安全措施,有助于检测偏见,并建立社会接受度,因此,应该进行进一步的调查,来解决这个问题。目前,已经有一些方法来补充“黑箱”特征,例如注意图和显著区域
。
5 判断肿瘤的浸润深度
Kubot等
开发了一种计算机辅助诊断系统,自动诊断胃癌浸润深度,用344例胃癌患者的902幅图像进行学习,并进行准确性测试,准确率为64.7%。Zhu等
应用卷积神经网络来判断胃肿瘤的浸润深度。他们用790张图片训练了一个卷积神经网络模型,并用另外203张图片对其进行了测试。在判断胃癌浸润深度时,卷积神经网络模型具有较高的准确性(89.2%)和特异性(95.6%),这一结果明显优于有经验的内窥镜医师。Hirasawa等
利用深度学习研制了胃镜自动诊断系统,使用了13 584张胃癌内镜图像进行训练,69例患者进行测试分析了2 296张测试图像,总灵敏性为92.2%,阳性预测值为30.6%,作者得出结论是他们的系统可以在短时间处理大量内镜图像,并有诊断能力。Kanesaka等
研究了一种使用支持向量机的计算机辅助诊断系统,以便于使用放大的NBI来区分早期胃癌。这项研究报道了在诊断性能(准确性96.3%,PPV 98.3%,灵敏性96.7%,特异性95%)和一致性(准确性73.8%,PPV 75.3%,灵敏性65.5%,特异性80.8%)方面的显著潜力。
6 人工智能应用面临的挑战和未来发展方向
人工智能在胃肿瘤诊断中的应用主要分为两大类:检测和定性。2012年,Kubota等
首次评估了一种计算机辅助模式识别系统,该系统使用内窥镜图像识别胃癌浸润深度。他们使用了902张内窥镜图像,并在10次交叉验证后创建了反向传播模型。结果:T
~T
分期诊断准确率分别为77.2%、49.1%、51.0%和55.3%。其中,T
(黏膜浸润)和T
分期(黏膜下浸润)的准确率分别为68.9%和63.6%。Hirasawa等
报道了一种基于卷积神经网络的诊断系统在内窥镜图像中检测胃癌的良好性能。作者用13 584张内窥镜图像训练模型,并用2 296张图像对其进行了测试。总灵敏性为92.2%。此外,直径≥6 mm的检出率为98.6%,所有浸润性癌均被识别出来
。所有遗漏的病灶均是表面凹陷和分化型黏膜内癌,即便是经验丰富的内窥镜医师也很难与胃炎区分开来。然而,卷积神经网络诊断为胃癌的69.4%的病变是良性的,最常见的误诊原因是胃炎伴红肿、萎缩和肠化生
。近期广州中山大学徐瑞华教授团队成功研发了上消化道肿瘤内镜人工智能辅助系统,进行了6家医院的多中心、病例对照、诊断性研究,对上消化道癌总体诊断率为90%以上
。
虽然机器学习模型的效率和准确性随着数据量的增加而增加,然而,考虑到隐私问题且人工标记数据的量有限,开发有效的机器学习模型具有挑战性。为了解决这个问题,已经提出了数据增强策略(使用综合修改的数据)
。尖峰神经网络更接近真实的神经元机制,尽管目前暂无有效的监督学习方法,但它可能会以更强大的计算能力取代现有的人工神经网络模型
。
使用人工智能进行诊断的准确性高并不意味着其应用于临床实践中的有效性好。临床结果的实际效益,医师的满意度,以及超出学术表现的成本效益,必须通过调查来证明。此外,人工智能也不是完美的。这就是为什么“增强智能”的出现强调了这样一个事实,即人工智能的设计初衷是为了提升人类的实践,而不是取代人类。虽然在医疗实践中应用人工智能的目的是提高工作流程的精确度,减少无意错误的数量,但已建立的不准确或夸大性能的模型很可能会因误诊或错误分类而引起伦理问题。还有一点,我们不知道人工智能的应用对医患关系的影响,而医患关系是医疗利用和医疗实践的重要组成部分。目前国内医患关系相对紧张,因此,在人工智能研究开始增多的时期,应该确立与人工智能模型发展相关的伦理原则。
人工智能自20世纪50年代问世以来,在胃肠病学领域一直受到统计学或图像分析领域的挑战。最近对大数据和计算机科学的评估推动了人工智能技术的快速发展,特别是深度学习算法,显示出了良好的潜力。现在,人工智能在胃肠病学领域的应用中已取得较大进展。作为内镜医师,要明智地利用人工智能,了解其可行性,并通过进一步的研究来改善其缺陷。
[1] Topol EJ.High-performance medicine: the convergence of human and artificial intelligence[J].Nat Med, 2019, 25(1): 44-56.DOI: 10.1038/s41591-018-0300-7.
[2] Konno M, Ishii H.AI for medical use[J].Oncotarget, 2019, 10(2): 86-87.DOI: 10.18632/oncotarget.26556.
[3] Park SH, Han K.Methodologic guide for evaluating clinical performance and effect of artificial intelligence technology for medical diagnosis and prediction[J].Radiology, 2018, 286(3): 800-809.DOI: 10.1148/radiol.2017171920.
[4] Lathuilière S, Mesejo P, Alameda-Pineda X, et al.A comprehensive analysis of deep regression[J].IEEE Trans Pattern Anal Mach Intell, 2019, 42(9): 2056-2081.DOI: 10.1109/TPAMI.2019.2910523.
[5] Ronneberger O, Fischer P, Brox T.U-net: Convolutional networks for biomedical image segmentation[C]//International Conference on medical image computing and computer-assisted intervention.Springer, Cham, 2015:234-241.
[6] LeCun Y, Bengio Y, Hinton G.Deep learning[J].Nature, 2015, 521(7553): 436-444.DOI: 10.1038/nature14539.
[7] Suzuki K, Yisong C.Artificial intelligence in decision support systems for diagnosis in medical imaging[M].New York: Springer, 2018, 31-58.
[8] Alagappan M, Brown JRG, Mori Y, et al.Artificial intelligence in gastrointestinal endoscopy: the future is almost here[J].World J Gastrointest Endosc, 2018, 10(10): 239-249.DOI: 10.4253/wjge.v10.i10.239.
[9] Rees CJ, Koo S.Artificial intelligence-upping the game in gastrointestinal endoscopy?[J].Nat Rev Gastroenterol Hepatol, 2019, 16(10): 584-585.DOI: 10.1038/s41575-019-0178-y.
[10] Takiyama H, Ozawa T, Ishihara S, et al.Automatic anatomical classification of esophagogastroduodenoscopy images using deep convolutional neural networks[J].Sci Rep, 2018, 8(1): 7497.DOI: 10.1038/s41598-018-25842-6.
[11] Wu L, Zhang J, Zhou W, et al.Randomised controlled trial of WISENSE, a real-time quality improving system for monitoring blind spots during esophagogastroduodenoscopy[J].Gut, 2019, 68(12): 2161-2169.DOI: 10.1136/gutjnl-2018-317366.
[12] Zhang X, Hu W, Chen F, et al.Gastric precancerous diseases classification using CNN with a concise model[J].PLoS One, 2017, 12(9): e0185508.DOI: 10.1371/journal.pone.0185508.
[13] Huang CR, Sheu BS, Chung PC, et al.Computerized diagnosis of Helicobacter pylori infection and associated gastric inflammation from endoscopic images by refined feature selection using a neural network[J].Endoscopy, 2004, 36(7): 601-608.DOI: 10.1055/s-2004-814519.
[14] Shichijo S, Nomura S, Aoyama K, et al.Application of convolutional neural networks in the diagnosis of Helicobacter pylori infection based on endoscopic images[J].EBioMedicine, 2017, 25: 106-111.DOI: 10.1016/j.ebiom.2017.10.014.
[15] Itoh T, Kawahira H, Nakashima H, et al.Deep learning analyzes Helicobacter pylori infection by upper gastrointestinal endoscopy images[J].Endosc Int Open, 2018, 6(2): E139-E144.DOI: 10.1055/s-0043-120830.
[16] Nakashima H, Kawahira H, Kawachi H, et al.Artificial intelligence diagnosis of Helicobacter pylori infection using blue laser imaging-bright and linked color imaging: a single-center prospective study[J].Ann Gastroenterol, 2018, 31(4): 462-468.DOI: 10.20524/aog.2018.0269.
[17] Kubota K, Kuroda J, Yoshida M, et al.Medical image analysis: computer-aided diagnosis of gastric cancer invasion on endoscopic images[J].Surg Endosc, 2012, 26(5): 1485-1489.DOI: 10.1007/s00464-011-2036-z.
[18] Hirasawa T, Aoyama K, Tanimoto T, et al.Application of artificial intelligence using a convolutional neural network for detecting gastric cancer in endoscopic images[J].Gastric Cancer, 2018, 21(4): 653-660.DOI: 10.1007/s10120-018-0793-2.
[19] Luo H, Xu G, Li C, et al.Real-time artificial intelligence for detection of upper gastrointestinal cancer by endoscopy: a multicentre, case-control, diagnostic study[J].Lancet Oncol, 2019, 20(12): 1645-1654.DOI: 10.1016/S1470-2045(19)30637-0.
[20] Zhu Y, Wang QC, Xu MD et al.Application of convolutional neural network in the diagnosis of the invasion depth of gastric cancer based on conventional endoscopy[J].Gastrointest Endosc, 2019, 89(4): 806-815.e1.DOI: 10.1016/j.gie.2018.11.011.
[21] Kanesaka T, Lee TC, Uedo N, et al.Computer-aided diagnosis for identifying and delineating early gastric cancers in magnifying narrow-band imaging[J].Gastrointest Endosc, 2018, 87(5): 1339-1344.DOI: 10.1016/j.gie.2017.11.029.
[23] Bae HJ, Kim CW, Kim N, et al.A perlin noise-based augmentation strategy for deep learning with small data samples of HRCT images[J].Sci Rep, 2018, 8(1): 17687.DOI: 10.1038/s41598-018-36047-2.
[24] Tavanaei A, Ghodrati M, Kheradpisheh SR, et al.Deep learning in spiking neural networks[J].Neural Netw, 2019, 111: 47-63.DOI: 10.1016/j.neunet.2018.12.002.