机器学习在冠状动脉计算机断层扫描领域的应用及进展
2021-03-28刘子暖杨俊杰陈韵岱
刘子暖,杨俊杰,陈韵岱
1解放军总医院第一医学中心心血管内科,北京 100853;2南开大学医学院,天津 300071
过去20年,心脏计算机断层扫描血管造影(cardiac computed tomography angiography,CCTA)设备与技术水平不断提高,逐渐成为评估冠状动脉疾病(coronary artery disease,CAD)的重要手段。2019年欧洲心脏病学会发表的《慢性冠脉综合征诊断与管理指南》推荐将CCTA作为疑似胸痛患者排除阻塞性CAD的初始检查手段(Ⅰ类推荐),对可疑或新诊断的CAD患者,可应用CCTA进行危险分层(Ⅰ类推荐)[1]。由于较高的阴性预测值及诊断准确性,CCTA被视为冠脉介入手术前可靠的CAD筛查手段[2]。 此外,随着CT心肌灌注(computed tomography perfusion,CTP)及CT血流储备分数(computed tomography-fractional flow reserve,CT-FFR)等功能学评估手段的持续发展与深入研究,解剖学联合功能学诊断可有效减少下游的侵入性检查及治疗[3-5]。
伴随着功能学成像的发展,人工智能(artificial intelligence,AI)在心血管领域的应用急剧增多。AI是对人类智能进行模拟、拓展及延伸的一门新兴学科,可以实现数据的自动解读,并在短时间内对大量数据集进行分析,建立并评估复杂模型的区分度及校准度。机器学习(machine learning,ML)是AI的一个分支,可从给定的训练数据集中运用不同的算法进行数据解析及学习,并以此为基础构建模型,从而对外部结果进行预判[6]。深度学习是一种利用人工神经网络实现机器学习的技术。当应用多层神经元节点进行计算时,整个体系获得的参数越多,对真实关系的模拟程度越强,该技术被称为深度神经网络(deep neural network,DNN)技术。
随着CCTA的广泛使用及图像分析特征的增加,图像后处理对技术及时间的要求不断提高,而ML不仅可以对此进行优化,还可增加图像预处理、风险分层等方面的新应用。目前,ML在心脏CT领域的相关循证医学证据迅速增多,本文对近年来ML在心脏CT领域,包括心脏CT图像分析、风险模型建立、CTP及CT-FFR等方面的应用进行 综述。
1 ML概要
ML是一门完全由数据驱动的计算机学科,它与普通算法的主要区别在于,普通算法只能接受给定的模式及关系,而ML可通过学习对数据中多维变量的潜在关系进行自动识别并建模,实现对外部数据的预判,使工作效率大大提高。根据训练数据集是否有学习标准,ML可分为监督学习、非监督学习、半监督学习及强化学习。监督学习主要用于解决分类及回归问题,常见算法包括k近邻(k-nearest neighbor,k-NN)、随机森林(random forest,RF)、支持向量机(support vector machines,SVM)、决策树(decision tree,DF)、逻辑回归及大部分神经网络。其中卷积神经网络(convolutional neural network,CNN)及DNN默认图像为输入层,通过卷积提取图像特征,配合若干全连接层完成图像特征分类,其容错能力好,泛化能力强,常用于处理图像相关问题。非监督学习无明确的学习目标,通过聚类算法寻找数据集中的规律性并进行分析,常用于无人工注释的数据。半监督学习的训练数据同时包括标注数据及非标注数据,可视为监督与非监督学习的结合。强化学习则主要解决序贯决策问题,在目前的临床研究中并不常用。
2 ML在心脏CT图像分析中的应用
2.1 在图像预处理中的应用 在图像重建及预处理中,对图像进行降噪处理及伪影修正可有效提高图像质量,为后续进一步图像分析提供保障。图像修正一般通过不同的滤波算法完成,根据应用域不同,可分为基于空间域及基于频域的降噪方法,通过在二维空间内对图像像素进行处理或在频域中识别噪声信息频谱差异,达到去噪的目的。这些算法多基于系统模型及数学统计模型,计算复杂,且涉及CT投影的原始数据,在实际研究中较难获得。ML对此进行简化,通过不同算法学习目标图像与标准图像间的非线性映射,进行端对端的直接学习,以此建立降噪模型。如Tatsugami等[7]提出的去噪过滤器,以高质量全模型迭代重建图像为目标,训练DNN模型,提高了混合迭代重建图像的质量,使得图像噪声由(23.0±4.6) HU降至(18.5±2.8) HU。当缺乏标准图像不能匹配样本对时,仍可使用非监督学习方法,如Kang等[8]提出的循环一致性生成对抗网络(cycle consistent generative adversarial network,Cycle GAN),通过对多相CCTA高、低剂量图像的映射关系进行学习,建立了降噪模型。
CT辐射剂量一直是CT研究领域的热点问题,辐射剂量的下降可减轻对人体的辐射伤害,但与此相伴的是图像信噪比的降低。降噪模型为此问题提供了一种可靠的解决方案。一些研究致力于运用ML算法构建低剂量CT降噪器,尤其是CNN[9-10]及生成对抗网络结构[11]。如Shan等[11]描述的GAN模型、Chen等[10]描述的3层CNN模型、Huang等[9]提出的两阶段残差CNN等。最近,还有研究将ML算法直接用于图像重建中,省去了重建后的降噪处理[12]。
除了与CT系统设备及重建算法相关的噪声外,运动伪影及高密度伪影也是导致图像质量较差的常见因素。Lossau等[13]提出一种名为CoMoFACT的模型,将合成运动伪影用于监督学习,实现对冠脉伪影的识别及量化。在此基础上,训练后的CNN模型实现了对伪影的校正[14]。最近,该团队还提出了应用3组CNN对起搏器造成的金属伪影进行消除的方法[15],该方法已在9例临床案例中完成了测试,结果显示金属伪影明显减少。除了卷积网络外,还有研究使用U-net网络修正正弦图以达到抑制金属伪影的目的[16]。
虽然ML在CT降噪及伪影校正方面取得了可喜的结果,但仍面临一些挑战。ML模型需要基于大量有代表性的数据进行训练,而部分研究对训练数据的质量要求较高,获取成本也较高,如上述金属伪影案例,这限制了训练数据集的样本量及多样性,导致训练后的模型泛化能力不足。Lossau等[13]通过人工模拟伪影解决了样本量不足的问题,但这种人为合成数据并不能代表所有真实的情况,样本多样性难以保证,在此情形下建立的模型是否会出现过度拟合问题令人担忧。此外,对于常见影响CCTA图像判读的严重钙化伪影及高密度支架伪影问题,相关研究较少。由于部分容积效应的影响,高CT衰减值区域的管腔边界不清,无法对其进一步评估,往往会导致无效检测或诊断准确性下降。如何在高CT衰减值背景下实现管腔识别及分割可能是该领域未来的最大挑战。
2.2 在冠脉钙化检测中的应用 冠脉钙化检测作为一种CAD的筛查工具,是心血管事件的有力预测因子。其检测通常在非对比增强的心脏CT图像中进行,以质量分数[17]、体积分数[18]或Agatston评分[19]来定量表示钙化负荷,其中Agatston评分是最常用的冠脉钙化积分(coronary artery calcium score,CACS)计算方法。目前已有许多半自动化冠脉钙化检测方法,但仍离不开人工手动标注,而ML的引入为冠脉钙化自动检测提供了更多可能性。
冠脉钙化检测一般以130 HU为阈值对钙化斑块进行识别及分割,其中对非冠脉钙化的区分及钙化位置特征的描述一直是两大核心问题,特别是在非对比增强CT中,冠脉难以与周围组织相区分。目前一些ML算法通过对病变纹理、体积、形状等图像特征进行学习,使用k-NN、SVM、CNN等分类器实现了对冠脉钙化的识别。对于位置特征,Wolterink等[20]及Yang等[21]通过使用匹配的CCTA图集进行配准,获取非对比增强图像上的冠脉位置信息;Isgum等[22]通过设计地图集为冠脉钙化的空间特征提供概率信息;Shahzad等[23]将CCTA地图集注册到CT扫描中进行冠脉位置估计,引入标准化空间以获得位置特征。
与非对比增强CT不同,CCTA中由于对比剂的应用使血管显像更加明显,其位置特征可以不必通过提取冠脉树获得。Wolterink等[24]通过在心脏周围设置边界框,使用CNN分类器直接对该区域中所有体素进行识别,将体素在该区域内的坐标确定为位置特征。Lessmann等[25]提出的方法与之类似,但该方法主要应用于低剂量胸部CT扫描而非CCTA扫描图集中。最近还有研究回避了冠脉钙化分割问 题[26],利用CNN结构直接回归计算CACS,将该方法应用于903例心脏CT及1687例胸部CT扫描图像中,获得的CACS与人工测量的CACS的类内相关系数达0.98,同时,该方法可在0.3 s内完成,计算效率远远超过其他方法。
目前已有的研究多致力于开发不同的ML算法解决冠脉钙化自动识别问题,这些方法大多仅应用于少量特定扫描图集中,当更换不同的扫描协议或CT扫描方案时,其性能尚不可知。van Velzen等[27]在最新研究中纳入用于低剂量肺癌筛查、正电子发射计算机断层扫描(PET)衰减校正、放射治疗计划及常规诊断目的的扫描图集,证实了深度学习算法在大量、多样化CT检查中的有效性。目前,临床中应用的冠脉钙化检测大多为半自动检测,需人工手动校正。基于ML算法的冠脉钙化全自动检测尚无统一的标准及规范化应用,难以在临床广泛开展,尤其是在缺少大量手动注释影像作为训练集且扫描协议难以统一的背景下,这对ML在该领域的下一步应用提出了巨大挑战。
2.3 在冠脉斑块分析中的应用 CCTA的主要作用是对冠脉斑块进行分析,从而获得有指导意义的斑块特征。有研究发现,无症状患者中的斑块负荷(包括其数量、大小、形态等)是未来心血管不良事件的预测因子[28]。斑块分析通常在CT后处理系统中由人工手动完成,其时间成本及人工成本十分昂贵,且具有一定的人为主观性。ML基于数据进行的分析在很大程度上可提高效率,弥补这一 缺点。
由于斑块分析仅在管腔内进行,部分斑块自动检测方法更关注管腔及血管壁的分割,以此作为斑块搜索的基础。Zhou等[29]提出了一种冠脉多尺度响应-滚动球囊区域生长法(MSCAR-RBG)用于提取冠状动脉树。Wei等[30]在此基础上,通过学习血管壁径向梯度的二维拓扑特征来检测非钙化斑块。Ghanem等[31]则将血管滤过器、区域生长与水平集算法相结合,分割血管壁来进行斑块检测,是首个通过3D CCTA图像数据输入进行管壁分割的框架。这些分割方法虽然有效地提取了管腔区域,使斑块检测更具有针对性,但其算法较为复杂,仅有少量研究开展。
另外一种常见的思路是在沿冠脉中心线的管腔截面中提取形状、强度及纹理特征,训练ML模型识别斑块。Zuluaga等[32]提出基于强度特征识别血管异常值以检测有无斑块;Zhao等[33]引入随机半径对称特征向量进行不同斑块类型的识别;Jawaid等[34]以平均径向轮廓为特征检测非钙化斑块。这几种检测方式均基于SVM模型进行。Zreik等[35]则提出了一种组合算法框架,应用CNN提取特征,通过递归神经网络(recurrent neural network,RNN)聚集特征,实现对斑块类型及狭窄程度的检测。
目前大多数研究仅可实现对斑块的粗略区分,即有无斑块、斑块类型(钙化、非钙化、混合斑块)及有无狭窄等,仅有少量研究对特定斑块类型进行了检测。如Yamak等[36]及Masuda等[37]对纤维斑块及脂质斑块的检测,Shi等[38]对易损斑块的识别。Kolossváry等[39]提出了一种识别组织学定义的晚期粥样硬化斑块的方法,该方法通过将组织学图像与体外CCTA扫描配准,确定CCTA上的参考标准,提取冠脉横断面特征,使用线性分类器将病变分为晚期或早期动脉粥样硬化。不同斑块类型对患者预后的影响不一,对高危斑块进行识别更有意义,但由于学习样本有限,模型难以达到广泛适用性。Kolossváry等[39]研究中的斑块类型由组织学切片定义,仅纳入7例患者的21根血管进行建模及验证,Masuda等[37]研究则以血管内超声(intravascular ultrasound,IVUS)的结果作为斑块分类标准,均难以获得大量样本,这大大限制了同类型研究的进一步开展。
目前,国内外均有使用基于ML的冠脉病变智能辅助诊断系统,如以色列斑马医疗研发的HealthCCS系统可针对钙化斑块进行分析,于2018年经美国FDA批准上市;我国CoronaryDoc冠心病辅助诊断系统可对易损斑块进行分析,进行冠脉血流动力学评估并给出血运重建术前规划,现已进入AI三类证绿色通道审批阶段。此外,随着更多的诸如“阿里AI”等人工智能平台的迅速发展,预计未来将有更多的人工智能辅助诊疗产品应用于临床 实践。
3 ML在风险模型中的应用
风险模型多采用ML分类算法,已在临床各领域得到广泛应用。常见的分类器包括RF、SVM、k-NN、决策树、逻辑回归及朴素贝叶斯。在心脏CT方面,ML主要使用回顾性数据建立预后模型,多用于预测疑似CAD患者的心血管不良事件,如Motwani等[40]及Ambale-Venkatesh等[41]的模型将临床特征与CT影像特征相结合,van Rosendael等[42]及Johnson等[43]的模型则仅纳入CT影像特征。其中,Johnson等[43]的研究基于16节段冠脉的4个特征,包括斑块体积、钙化程度、直径狭窄率及有无正性重构,对DF、逻辑回归、k-NN及分类神经网络4种模型进行比较,结果显示k-NN对结局的预测性能最佳,预测全因死亡的曲线下面积(area under curve,AUC)达0.77,预测冠心病死亡或非致死性心肌梗死的AUC达0.85。该研究还将k-NN评分与现有的非ML评分相比较,包括CAD-RADS、SSS、SIS、CT-Leaman及SPS,除SPS在冠心病死亡或非致死性心肌梗死事件中与k-NN无明显差异外(AUC:0.84 vs. 0.85, P=0.37),其余评分的AUC均明显低于k-NN(全因死亡:0.77 vs. 0.72~0.26,P<0.001;冠心病死亡或非致死性心肌梗死:0.85 vs. 0.80~0.83,P<0.001)。
最近一项研究利用25个临床特征建立验前概率模型,预测CCTA上阻塞型CAD的出现,该模型在多国、多中心CONFIRM研究人群中应用,结果显示,与ML模型(AUC=0.773)、CAD联盟评分(AUC=0.734)、CACS(AUC=0.866)、更新的Diamond-Forrester评分(UDF,AUC=0.682)相比,ML与CACS组合的预测性能最佳(AUC=0.881,P<0.05)[43]。
ML用于风险模型的优点在于:不基于先验假设,即纳入模型的特征不具有主观偏向性,而是运用算法对所有能获得的信息进行筛选,得到对结局有益的特征。如Motwani等[40]的研究中展示的信息增益排名、Al'Aref等[44]的研究中的特征重要性排名等。这有助于获得更全面的信息,建立更精准的模型。虽然ML算法的优越性已被证实,但不同算法的计算策略、效率及精准度有所区别,目前尚缺乏大型研究对不同算法的性能进行比较[44]。另外,风险模型的建立完全是由数据驱动的,这需要有相对完整临床信息的大样本人群,同时要求有准确的随访或诊断结果作为模型分类标准。由于我国目前临床数据的收集及随访程序并不十分完善,因此在我国开展此类研究还存在一定困难。
4 ML在CTP中的应用
CTP是最近几年发展起来的一种新型功能学检查,通过观测对比剂在心肌中的灌注及流出情况评价心肌缺血程度,可分为静态及动态两种模式,前者在首次灌注期间的单个时间点进行图像捕获,而后者在灌注期间进行多次扫描,可获得完整的信号强度-时间曲线。检测心肌在负荷状态下的灌注情况,通常在动态CTP中完成,多以药物形式进行 负荷。
ML在CTP中的应用尚不多见。Xiong等[45]采用训练好的Adaboost分类器在静息CCTA扫描图集中执行左室自动分割,并以标准化灌注强度、跨壁灌注比及心肌壁厚度3个特征训练ML模型,预测定量冠脉造影(quantitative coronary angiography,QCA)上>50%的狭窄病变。该研究将ML方法同时用于图像分割及预测模型中,展示了ML模型组合应用的可能性,然而其局限性在于,基于CTP的预测模型是以QCA结果为分类标准的,但QCA并不能反映狭窄的功能学意义。该团队的一项后续研究使用相似的分析及建模方法预测FFR上的显著缺血,结果显示,该方法的诊断准确率达63.5%,与CT显示的冠脉狭窄(AUC=0.68)相比,静息CTP可明显提高对缺血病变的识别能力(AUC=0.75,P=0.001)[46]。近期van Hamersvelt等[47]对冠脉中度狭窄的患者进行研究,使用深度学习算法对患者的左室心肌形状、纹理及对比度等图像信息进行提取,预测FFR定义的功能性狭窄,结果显示与仅基于狭窄等级的分类相比,该方法提高了对缺血病变的识别能力(AUC:0.76 vs. 0.68)。
在心肌灌注方面,ML更多应用于SPECT中,而CTP在检测小面积心内膜下缺血及多血管病变等方面较SPECT心肌灌注更具优势。即便如此,一些问题仍亟待解决,如动态CTP辐射暴露更大、对扫描硬件要求高、易受伪影影响(特别是线束硬化伪影),而静态CTP对扫描时间的要求更为严格等,这些缺陷可能会成为未来ML改进的立足点。另外,动态CTP已被证明与未来不良心脏事件的发生相关,可预测冠状动脉狭窄的预后[3],但目前尚缺少相关研究,将CTP特征引入预后模型可能会提高对相关患者的风险分层能力。
5 ML在CT-FFR中的应用
CT-FFR是另一项很有前景的新兴技术,它以流体动力学为计算基础,通过纳维-斯托克斯方程(Navier-Stokes equations)将血液模拟为牛顿流体,在静息CCTA图像上,对心室、冠脉树及主动脉进行三维重建,模拟冠脉最大充血状态,与冠脉血流量、管壁弹性等参数结合,计算狭窄远端冠脉内的平均压力与冠脉开口处主动脉平均压力的比值,获得血流储备分数。
最早提出的Heartflow模型于2014年经FDA批准用于临床。该模型主要是基于计算流体力学(computational fluid dynamics,CFD),其临床适用性已得到大量研究支持,最近Patel等[48]使用ADVANCE(Assessing Diagnostic Value of Non-invasive FFRCT in Coronary Care)注册研究中接受CCTA患者的1年随访结果,评估基于Heartflow的CT-FFR对下游护理及临床结局的影响,结果显示,患者发生主要心血管不良事件(MACE)的比例较低,与CT-FFR>0.8的患者相比,CT-FFR≤0.8的患者发生心血管死亡或非致死性心肌梗死的风险明显升高(RR=4.22,P=0.01)。然而,这种基于计算流体力学的方法对计算机硬件要求高,运算耗时长,计算成本巨大,且其依赖于经验模型,难以完成复杂病变的计算。我国基于深度学习的CT-FFR软件DEEPVESSEL-FFR已于去年投产上市,这是国内首个获得AI智能医疗器械三类证的AI医学影像产品,也是全球范围内第二款获批上市的CT-FFR产品。不同于Heartflow模型依靠传统的流场仿真技术,DEEPVESSEL-FFR采用自主研发的深度学习技术,将血流动力学模型与深度神经网络结合,能够高效、精准地对全冠脉树上任意一点的FFR值进行计算,可以对复杂病变进行评估,与压力导丝测量的有创FFR具有良好的一致性(r=0.686,95%CI 0.567~0.799,P<0.001)[49]。此外,国内外多家企业也一直致力于研发基于不同深度学习算法的CT-FFR模型,并相继进入临床试验及医疗审查阶段,如早期由Itu等[50]提出的cFFR模型,基于12 000多个具有不同狭窄程度的冠脉模型,构建ML模型以学习解剖特征与使用CFD模型计算的FFR值之间的映射关系。该方法最大的优点是使FFR计算时间明显缩短,可达近乎实时的结果,且其对缺血性病变的诊断能力已得到证实[51-53],包括基于不同金标准[54-55]及对特定病变[56-57]的研究。近期Lossnitzer等[58]的一项研究表明,在CT-FFR>0.8的患者中,94%经侵入性冠状动脉造影(invasive coronary angiography,ICA)证实为无阻塞型病变,cFFR的应用可能会减少55%潜在的ICA转诊,有助于改善临床下游管理。最近提出的uCT-FFR模型以侵入性FFR为金标准,在9个中心的338例患者中进行验证,诊断准确率达91%,高于CCTA及ICA(P<0.001)[59]。
传统的有创FFR基于冠脉造影,其耗材昂贵,且需药物扩张血管,有一定风险,而CT-FFR依赖于无创影像学检查CCTA,在降低医疗成本的同时,可精准、快速、安全地进行FFR分析,而ML算法的应用为此提供了保障。与CCTA图像分析类似,CT-FFR分析产生的误差主要来源于图像质量干扰,包括CCTA图像噪声及重度弥漫钙化伪影。目前有学者提出可应用减影冠状动脉计算机断层扫描(subtraction coronary computed tomography angiography,S-CCTA)来克服钙化伪影的影响,或可提高CT-FFR在弥漫钙化病变中的诊断性能[60]。另外,随着仿真技术水平的提高,CT-FFR在提供病变功能学评估的同时,还可进行虚拟支架植入及虚拟搭桥仿真,为下游诊疗提供精准预案。目前的研究多围绕CT-FFR诊断性能进行,少有预后研究评估不同模型的临床应用价值,我国正在开展一项CT-FFR影响稳定型胸痛患者临床决策的多中心随机对照临床研究(TARGET研究,ClinicalTrial.gov注册号:NCT03901326)[61],这将为该技术在我国的开展提供更多循证医学依据。
6 总结与展望
ML是计算机科学高速发展的产物,它基于大数据计算,对潜在的事物规律进行自主学习,优化了传统计算模型,大幅提高了工作效率及质量。目前,ML在实际应用中面临的挑战主要源于算法及数据质量两个方面。其中在算法方面,尚缺少对不同模型的横向比较研究,不同算法采取的建模思路与计算方式各异,需要考虑针对不同类型的临床问题采取何种算法以取得最优解,特别是对于目前尚在探索中的应用领域,如重度钙化、支架影的识别及CT-FFR诊断灰区等问题。在数据质量方面,受限于临床成本问题,高质量、大样本训练数据较难获得,影响了以此为基础建立的ML模型的泛化能力及稳定性。对某些复杂问题,当ML模型不具备解决能力时,尚需人为干预及校正。
近年来,随着深度学习及卷积神经网络等AI技术的不断涌现,影像组学的概念被提出,以概述从医疗影像中自动提取高通量特征参数,建立模型以进行风险分层、辅助诊疗决策这一完整过程,其可视为AI在医疗影像评估中多个环节的组合应用,并已逐渐成为目前临床研究的大趋势。在心脏CT领域,已有许多AI产品落地应用,未来如何借助AI实现临床患者诊疗路径的优化管理值得进一步关注 研究。