应用卷积神经网络的人工智能技术在早期食管癌诊断中的临床分析
2019-09-18石善江王宏光刘时助韩帛特
石善江 王宏光 刘时助 韩帛特
[摘要] 目的 验证一个由卷积神经网络的人工智能系统技术模型,从而提高临床白光内镜下早期食管癌的诊断水平。方法 回顾性方便收集2016年7月—2018年8月期间吉林市人民医院内镜中心数据库中2 120张食道图像,其中包括早期食管癌288张,良性病变及正常图像1 832张。首先通过腾讯觅影人工智能系统技术模型对该2 120张图像进行验证,同时在交给4名内镜医师进行诊断,最后分析统计结果。结果 卷积神经网络人工智能模型用于早期食管癌的准确率为88.4%(1 875/2 120)、敏感度89.6%(258/288)、特异度88.3%(1 617/1 832),每张图像的诊断时间为(0.25±0.03)s,均优于4名内镜医师。结论 该实验证明由卷积神经网络技术建立的人工智能模型对食管癌诊断有较高的准确率、敏感度、特异度,可在临床白光内镜中辅助内镜医师进行诊断。
[关键词] 卷积神经网络;人工智能;食管癌;诊断;白光内镜
[中图分类号] R735 [文献标识码] A [文章编号] 1674-0742(2019)06(c)-0007-04
[Abstract] Objective To validate a technical model of artificial intelligence system by convolutional neural network, so as to improve the diagnosis of early esophageal cancer under clinical white endoscopy. Methods A retrospective convenient collection of 2 120 esophageal images in the endoscopy center database of Jilin City People's Hospital from July 2016 to August 2018 included 288 early esophageal cancers, benign lesions and 1 832 normal images. Firstly, 2 120 images were verified by Tencent's shadow artificial intelligence system technology model, and then diagnosed by four endoscopists, and finally the statistical results were analyzed. Results The accuracy of convolutional neural network artificial intelligence model for early esophageal cancer was 88.4% (1 875/2 120), sensitivity 89.6% (258/288), specificity 88.3% (1 617/1 832), diagnosis of each image time was (0.25±0.03) s, which was better than 4 endoscopists. Conclusion This experiment proves that the artificial intelligence model established by convolutional neural network technology has higher accuracy, sensitivity and specificity for the diagnosis of esophageal cancer, and can be diagnosed by clinical endoscopy in clinical white endoscopy.
[Key words] Convolutional neural network; Artificial intelligence; Esophageal cancer; Diagnosis; White endoscopy
目前,食管癌居全球惡性肿瘤发病率第8位,死亡率第6位,我国是食管癌的高发国家之一,每年食管癌的新发病例可超过22万例,其中约20万例死亡[1-3]。据统计,90%的食管癌患者已达到中晚期,其5年生存率不超过20%,除生活质量大大降低外,还增加了家庭负担。早期食管癌是指病变仅累及粘膜层及黏膜下层,不伴有淋巴结转移的食管癌,其发现时可经内镜下微创治疗,5年生存率可达95%[4]。我国第三次全国死因调查及食管癌登记资料指出,近年来其发病率和死亡率总体有下降趋势[5-6],但仍占世界同期约49%[1]。虽然有下降,但我国人口众多,患者量仍巨大,患者量大片子太多,医生看不过来,基层医院买得起设备,请不来医生,非高发地区的医生,缺乏实践经验等因素,导致我国早期食管癌的诊断水平低,以上问题对于基层医院来说,尤为可见。
随着科技的不断发展,机器学习出现在医学的各个领域,人工智能(artificial intelligence,AI)深度学习技术也逐渐被广泛应用。该研究选择2016年7月—2018年8月期间吉林市人民医院内镜中心数据库中的2 120张食道图像,验证了一个由卷积神经网络(convolutional neural networks,CNN)的人工智能系统技术模型,明确了其在早期食管癌诊断中的临床价值,希望提高临床白光内镜下早期食管癌的诊断水平。现报道如下。
1 资料与方法
1.1 一般资料
回顾性方便收集吉林市人民医院内镜中心数据库中2 120张食道图像,其中包括早期食管癌288张,良性病变及正常图像1 832张。良性病变包括慢性食管炎、反流性食道炎、Barrett食道、食管息肉、食管粘膜下隆起等5种,而早期食管癌的病例图像均由该院行内镜下黏膜剥离术(endoscopic submucosal dissection,ESD)的90例患者中选取,术后病理诊断包括癌前病变(低级别上皮内瘤变、高级别上皮内瘤变)、局限于粘膜层或黏膜下层的癌(以鳞状细胞癌和腺癌为主),首先通过腾讯觅影人工智能系统技术模型对该2 120张图像进行验证,同时在交给4名内镜医师进行诊断,最后分析统计结果。所有的病例都有活检病理诊断或术后病理诊断及病变范围明确。为方便实验进行,该实验将上述ESD术后病理回报的类型定位“早期食管癌”,并不等同于指南工人的早期食管癌定义[3]。
1.2 实验器械
所有图像均在白光、非放大模式、非碘染下拍摄,所使用的设备包括Olympus公司的260及290系列,Fujinon公司的580和590系列。同时应用由腾讯公司提供的腾讯觅影-人工智能医学影像专家系统进行验证。
1.3 实验方法
利用腾讯公司提供的腾讯觅影-人工智能医学影像专家系统对所收集2016年7月—2018年8月期间吉林市人民医院内镜中心数据库中2 120张食道图像进行比对分析识别。后选取4名内镜医师,分为低年资2名和高年资2名,低年资内镜医师是指从事内镜行业不足3年,内镜检查例数为1 000~2 000例,高年资内镜医师是指从事内镜行业超过5年,且内镜检查例数超过5 000例。由4名医师分别对选取的食道图像进行识别诊斷,分别其诊断每张图片所用时间,以及统计其针对的准确率、敏感度及特异度。
1.4 统计方法
采用SPSS 17.0统计学软件进行数据处理,计量资料采用(x±s)表示,行t检验,计数资料[n(%)]采用χ2检验,P<0.05为差异有统计学意义。
2 结果
该次实验总共选取2 120张食道图像,其中包括早期食管癌288张,良性病变及正常图像1 832张。而288张早期食管癌图像中,腾讯觅影的卷积神经网络人工智能模型正确识别258张,其敏感度为89.6%;正确识别良性病变及正常图像1 617张,其特异度为88.3%;总准确率为88.4%,每张图像的诊断时间为(0.25±0.03)s。
对于2名低年资内镜医师及2名高年资内镜医师对选取的2120张食道图像诊断的敏感度分别为58.7%、61.1%、70.1%、80.2%,特异度分别为:80.1%、72.5%、82.0%、75.9%,其识别的总准确率分别为77.1%、70.9%、80.4%、76.5%。而4名医师对每张图像的平均诊断时间分别为(3.54±1.62)s、(2.86±1.78)s、(2.54±1.38)s、(3.12±2.12)s。对比应用腾讯觅影人工智能模型及内镜医师识别图像的敏感度、特异度、总准确率,见表1、表2。
3 讨论
该实验将新兴的医疗新技术卷积神经网络的人工智能深度学习模型应用在早期食管癌的诊断中,并再一次印证了该模型对于消化内镜领域中应用具有较好的临床效果。通过回顾性收集2 120张食道图像,通过腾讯觅影人工智能系统技术模型对该2 120张图像进行验证,同时在交给4名内镜医师进行诊断,最后分析统计结果表示前者的敏感度89.6%、特异度为88.3%、总准确率为88.4%,每张图像的诊断时间为(0.25±0.03)s,均明显优于4名内镜医师。
我国食管癌的发病和死亡人数仍均世界首位,20世纪50年代以来,食管癌筛查和早诊早治一直都受到国家卫生部门的重视,企业是降低死亡率提高生存率的主要策略[3]。对于目前的国情来看,对于食道癌最直观有效的检查方法为内镜检查,在内镜下早期发现,早期治疗是改善预后、节约国家医疗资源、减轻家庭和社会负担的有效途径。对于目前的研究显示,早期食道的诊断方法最普通的是白光内镜,但由于早期食道癌病变不典型,诊断难度较多,医生诊断水平较低,医疗资源分配不均衡等等原因是造成早期食道癌漏诊的主要因素。应用碘染色可以大大提高早期食管癌及高度异型增生的检出率,但仍存在一些问题,如:特异性低,操作时间略长,难度大,增加患者痛苦,只能确定病变存在的部位和范围,无法判断良恶性质[7]。为解决上述难题,随之又出现了窄带成像技术(narrow band imaging,NBI)[8],可通过染色后观察IPCL进行诊断,但有研究显示对于没有经验的内镜医师通过NBI对食管鳞状细胞癌诊断的敏感度仅为53%[9]。技术不断更新,蓝激光成像技术也应用于食管癌的诊断当中,研究表明在蓝激光模式下,由于其亮度更高,能远距离发现病变,较NBI更早发现病灶[10]。对于早期食管癌的诊断方法如此之多,但诊断率仍然较低,是因为我国人口众多,患者量仍巨大,患者量大片子太多,医生看不过来,基层医院买得起设备,又请不来医生的医疗资源分配不均衡,非高发地区的医生,缺乏实践经验等,以上问题对于基层医院来说,尤为可见。如何能解决上述的问题,是当前需棘手解决的。
AI在医疗领域的出现,帮助消化内镜医师解决了上述的问题。这种深度学习的AI技术是由哈佛大学医学院Wells教授在其综述中指出,其解决了医学图像分析任务的发展趋势[11]。而其原理则基于CNN,其通常由多个交替出现的卷积层和池化层,以及末端的全连接层构成多层次人工神经网络,CNN在本质上是通过学习网络具有输入到输出的映射能力,通过前向的传播技术输出值,然后将输出值与理想标签值的误差通过梯度下降法对最小化误差问题寻优,再利用反向传播梯度调整CNN参数以达到更为精准的深度学习模式[12],从而应用到医学图像的分类、检测、分割中。AI深度学习模型已应用于全身各个系统的诊疗中,如放射肿瘤学诊断[13]、皮肤癌诊断[14]、糖尿病视网膜病变分类[15]。近几年该技术以及逐步应用于消化疾病领域,如利用计算机深度学习与智能图像提高对胃高分化腺癌病理的诊断[16],利用图像分析技术鉴别超声内镜下自身免疫性胰腺炎与慢性胰腺炎的诊断[17]。AI对于消化道早期领域也在不断探入,有研究表明[18],AI可用于辅助结肠镜检查,从肠黏膜检查的充分性、肠息肉探查、光学活检等方面提升结肠镜检查质量。长海医院回顾性选取了5 159张胃镜图像进行AI深度学习模型的训练及验证中得出,其诊断早期胃癌的敏感度高达88.8%,特异度89.7%,准确率为89.4%,大大提高了早期胃癌的诊断水平[19]。而Horie教授研究表明,根据CNN建立的AI模型对于食道癌的诊断在短时间内具有较大的敏感度[20]。基于以上的研究,该科选取大量的食管图像对腾讯觅影的AI模型进行再一次的验证,验证表面该AI模型具有较高的敏感度、特异度、准确率,且用时少。
该实验结果表明腾讯觅影建立的CNN的人工智能系统对早期食管癌的诊断有较大的帮助,可以协助临床消化内镜医师进行诊断,从而达到早诊早治的效果,但该模型的建立仍需日后大量样本数据的充实,才能不断提高其诊断效果,从而解决基层医疗资源分配不均衡,医疗诊治水平落后的现状,希望由CNN技术构建的人工智能系统可以广泛的应用于临床医疗工作中。
[参考文献]
[1] 中国早期食管癌筛查及内镜诊治专家共识意见(2014年,北京)[J].中华消化内镜杂志,2015,32(4):205-224.
[2] Wells III WM. Medical imagc analysis-past,presect,and future[J]. Medical Image Analusis,2016,33(2):4-6.
[3] 田秀娟,刘国才,谷姗姗,等.医学图像分析深度学习方法研究与挑战[J].自动化学报,2018,44(3):401-420.
[4] Bibault JE, Giraud P, Burgun A. Big data and machine learning in radiation oncology: state of the art and future prospects[J]. Cancer Lett,2016,382(1):110-117.
[5] Esteva A, Kuprel B, Novoa RA, et al. Dermatologist-level classification of skin cancer with deep neural networks[J]. Nature,2017,546(7660):115-118.
[6] Gulshan V, Peng L, Coram M, et al. Development and validation of a deep learning algorithm for detection of diabetic retinopathy in retinal fundus photographs[J]. JAMA, 2016,316(22):2402-2410.
[7] 夏靖媛,纪小龙.计算机深度学习与智能图像诊断对胃高分化腺癌病理诊断的价值[J].世界华人消化杂志,2017,25(12):1043-1049.
[8] Byrne MF,Shahidi N,R ex DK.Will Computer-AidedDetection and DiagnosiRevolutionize Colonoscopy[J].Gastroenterology,2017,153 (6) :1460-1464.
[9] 王智杰,高杰,孟茜茜,等.基于深度学习的人工智能技术在早期胃癌诊断中的应用[J].中华消化内镜杂志,2018,35(8):551-556.
[10] Cui Y, Dong Q, Hong D, et al. Predicting protein-ligand binding residues with deep convolutional neural networks[J]. BMC Bioinformatics, 2019, 20(1): 93-99.
[11] Panda R, Puhan N B, Rao A, et al. Deep convolutional neural network-based patch classification for retinal nerve fiber layer defect detection in early glaucoma[J].J Med Imag ing (Bellingham), 2018, 5(4): 440-443.
[12] Park H, Chun S M, Shim J, et al. Detection of chromosome structural variation by targeted next-generation sequencing and a deep learning application[J]. Sci Rep, 2019, 9(1): 3644-3649.
[13] Paul R, Schabath M, Balagurunathan Y, et al. Explaining Deep Features Using Radiologist-Defined Semantic Features and Traditional Quantitative Features[J]. Tomography, 2019, 5(1): 192-200.
[14] Ren H, Wang Q H, Xing Y, et al. Super-multiview integral imaging scheme based on sparse camera array and CNN super-resolution[J]. Appl Opt, 2019, 58(5): A190-A196.
[15] Theagarajan R, Bhanu B. DeephESC 2.0: Deep Generative Multi Adversarial Networks for improving the classification of hESC[J]. PLoS One, 2019, 14(3): 849-856.
[16] Winter R, Montanari F, Noe F, et al. Learning continuous and data-driven molecular descriptors by translating equiva lent chemical representations[J].ChemSci, 2019, 10(6): 1692-1701.
[17] Wu E, Hadjiiski L M, Samala R K, et al. Deep Learning Approach for Assessment of Bladder Cancer Treatment Response[J]. Tomography, 2019, 5(1): 201-208.
[18] 戴垚均,閆士举,宋成利.基于密集网络改进的肺结节良恶性分类模型[J].中国医学影像技术,2018,34(7):1104-1109.
[19] 孔小函,檀韬,包凌云,等.基于卷积神经网络和多信息融合的三维乳腺超声分类方法[J].中国生物医学工程学报,2018,37(4):414-422.
[20] 万艳丽,胡红濮,陈荃,等.基于深度卷积神经网络的脑部图像疾病类别特征库构建[J].医学信息学杂志,2018,39(3):16-20.
(收稿日期:2019-03-25)