APP下载

深度学习在糖尿病视网膜病灶检测中的应用综述

2021-10-28聂永琦

计算机工程与应用 2021年20期
关键词:卷积病灶特征

聂永琦,曹 慧,杨 锋,刘 静

山东中医药大学 智能与信息工程学院,济南 250355

糖尿病视网膜病变(Diabetic Retinopathy,DR)是糖尿病引起的一种眼科疾病,也是造成视力损伤和失明的主要原因[1]。据相关研究表明,使用眼底成像技术、光学相干断层扫描技术(Optical Coherence Tomography,OCT)和荧光素造影(Fundus Fluorescein Angiography,FFA)进行有效的DR筛查和早期诊断可以显著降低患者出现视力下降或失明的概率[2-4]。然而随着DR筛查量的增加,在临床诊断方面出现以下问题[5]:(1)病灶在高分辨率视网膜图像中占比小,且部分病灶与视网膜组织相似,医生在诊断中极易出现漏诊、误诊等情况。(2)随着就诊人数的增多,繁重的阅片任务增加了医生的工作负担,导致医生阅片速度慢,无法给予患者及时的反馈,从而错过最佳治疗时机。(3)医疗资源分配不均,导致偏远地区的患者无法获得详细的治疗方案。因此,亟需开发有效的CAD系统,辅助临床医生提高DR筛查率和诊断准确率,从而降低患者出现失明的概率。

近年来,以深度学习方法为基础的CAD系统在肺癌、脑肿瘤以及DR等疾病检测中取得了显著成果[6-8]。深度学习通过由浅到深的多层次网络结构,从原始图像中学习低层特征,结合不同卷积核提取的中间层特征,形成逐渐抽象的高层语义特征,从而获得更高的病灶检测精度。DR在不同阶段会出现相应的病理特征,如微动脉瘤(MA)、出血(HE)、硬性渗出(EX)和软性渗出(SE)等,通过识别和定位眼底图像中不同病灶区域可及时对早期DR进行筛查。此外,随着大规模医学图像数据的开放和深度学习的发展,推动了一系列优秀深度学习算法的出现,尤其是卷积神经网络(Convolution Neural Network,CNN)[9]及其网络模型的相关算法改进。CNN模型利用卷积结构交替进行卷积和池化操作,以获取眼底图像中难以提取的深度特征,引导网络实现端到端的训练,不断提高模型检测速度,使其具有更好的鲁棒性和泛化能力,该网络已成为深度学习技术在医疗诊断领域最成功的应用之一。

本文首先整理了病灶检测领域常用的数据集;其次总结基于深度学习的病灶检测方法,并将其按照全监督和非完全监督两种不同的监督方式进行详细阐述;然后介绍小样本问题的处理和模型可解释性,并对算法的特点和性能进行综合对比分析;最后对深度学习在糖尿病视网膜病灶检测领域所面临的问题和未来研究方向进行展望。

1 DR数据集介绍

数据集是深度学习体系结构的重要组成部分,高质量的数据有助于开发、训练以及改进算法。深度学习,尤其是全监督的深度学习方法,需要大量经过专家标注与验证的图像数据。不同类型的数据集在图像数目、标注情况以及拍摄角度等方面存在较大差异,因此研究人员可根据任务需求选择合适的数据集。为推进医学图像分析领域的发展,并且对不断涌现的病灶检测方法进行客观比较,本章详细介绍了近年来病灶检测领域常用的数据集。

1.1 DRIVE

DRIVE(https://www.isi.uu.nl/Research/Databases/DRIVE/)[10]由Niemeijer团队建立,总共包含40张不同年龄个体的彩色眼底图像,其中7张眼底图像包含早期病变,像素值为565×584,存储格式为JPEG。该数据集由2个专家同时进行人工标注,提供具有70%置信度的血管像素注释,可以更好地运用到全监督模型的训练过程中。DRIVE是衡量视网膜血管分割方法性能好坏的常用数据集。

1.2 STARE

STARE(http://cecas.clemson.edu/~ahoover/stare/)[11]由美国国立卫生研究院提供,由20张彩色眼底图像组成,像素值为605×700。其中10张图像显示与人眼有关的13种疾病,每张图像出现的疾病名称和对应代码采用列表详细记录。该数据集由2位临床专家对血管和视神经进行人工标注,但没有提供掩膜,需要开发人员手动设置。目前,包含血管和视神经像素标注的图像数量已增加至120张。

1.3 MESSIDOR

MESSIDOR(http://www.adcis.net/en/third-party/messidor/)[12]来源于TECHNO-VISION项目,包含来自3个不同眼科机构的1 200张彩色眼底图像。不同数据集在图像质量、分辨率和视觉效果等方面存在显著差异,其像素值分别为1 400×960、2 240×1 488、2 304×1 536,存储格式为TIFF。每张图像分别对应一个诊断文件,该文件由经验丰富的临床医生完成,包含DR和黄斑水肿(DME)两种眼部疾病的详细诊断方案。专家依据彩色眼底图像中MA的数目、出血量和有无新血管形成将DR的严重程度分为4等级;依据黄斑与EX之间的距离将DME分为3等级。

1.4 E-Ophtha

E-Ophtha(http://www.adcis.net/en/third-party/e-ophtha/)[13]由ANR-TECSAN-TELEOPHT项目建立。该数据集由E-Ophtha-MA和E-Ophtha-EX两个子集构成,每个子集由多个文件夹组成,一个文件夹对应一个患者的就诊信息,包括多张以JPEG格式存储的彩色眼底图像和以PNG格式存储的二进制病变蒙版,像素值为2 544×1 696、1 440×960、1 504×1 000。其中E-Ophtha-MA数据集包含381张标注MA的彩色眼底图像,E-Ophtha-EX数据集包含82张标注EX的彩色眼底图像。

1.5 IDRID

IDRID(https://ieee-dataport.org/open-access/indiandiabetic-retinopathy-image-dataset-idrid)[14]来源于IEEE国际生物医学影像研讨会(ISBI-2018)举办的“糖尿病性视网膜病变:分割和分级挑战”竞赛,由597张彩色眼底图像组成,像素值为4 288×2 848,存储格式为JPEG。该数据集由三部分组成:第一部分包含81张眼底图像,每张图像提供MA、SE、EX和HE四种病灶区域的像素语义标注。第二部分包含516张图像,通过CSV文件详细记录每张图像中DR和DME的病理状况以及明确的病变等级。第三部分采用CSV文件详细记录每张图像中视盘和中央凹的中心位置信息,用于完成视神经盘和中央凹的检测任务。

1.6 EyePACS

EyePACS(https://www.kaggle.com/c/diabetic-retinopathyction/data)[15]来源于Kaggle(2015)竞赛,包含35 126张被眼科专家标注过的彩色眼底图像。眼科专家根据病变严重程度将图像分为5等级,采用CSV文件详细记录图像的分级信息。种族多样性是EyePACS数据集最重要的属性之一,该数据集不仅包含亚洲、非洲和欧洲地区个体的彩色眼底图像,还收集了具有印度次大陆和美国土著血统个体的视网膜图像,这也是该数据集被众多视网膜疾病研究组用于实验的重要原因。

1.7 DRiDB

DRiDB(https://ipg.fer.hr/ipg/resources/image_database)[16]由萨格勒布大学附属医院提供,由50张彩色眼底图像组成,图像分辨率为720×676,存储格式为BMP。每张图像均由五位专家对MA、HE、EX、SE、视盘(OD)、血管和黄斑等病变区域及相关区域的像素进行独立标注,有效解决了数据评分专家数量有限的缺点,可提供更加精准的数据标签,有利于模型的开发与训练。

1.8 Dataset for OCT Detection

Dataset for OCT Detection(https://www.kaggle.com/paultimothymooney/farsiu-2014)[17]来源于Kaggle竞赛。该数据集由训练集和验证集两部分组成,训练集包含6名患者的OCT图像信息,并采用.mat文件详细记录尺寸为496×768×61的张量和稀疏张量,其中A扫描的轴向分辨率为3.87μm/像素,横向分辨率范围为11.07~11.59μm/像素,方位角分辨率范围为118~128μm/像素,B扫描的体积尺寸为768。验证集包含10名患者的OCT图像信息,横向分辨率范围为10.94~11.98μm/像素,其他图像采集参数与训练集保持一致。表1总结了用以开发病灶检测算法的数据集。

表1 用于病灶检测的数据集Table 1 Data set used for lesion detection

2 病灶区域检测方法

糖尿病视网膜病灶区域检测是DR图像分析与解译的重要前提。然而,由于眼底环境复杂性,病灶形状多样性、图像噪声干扰等问题,自动精准的病灶检测仍然存在一定困难。基于深度学习的病灶区域检测方法可以从大量眼底图像中自动学习并提取有效的鉴别特征,其性能较传统图像检测方法具有显著提升。深度学习是一种典型的数据驱动模型,本章根据标注数据量与标注方式的不同,将检测方法分为基于全监督的病灶区域检测方法和基于非完全监督的病灶区域检测方法[18]。

2.1 基于全监督的病灶区域检测方法

全监督深度学习模型是当前应用范围最广、检测效果最佳、影响规模最大的算法框架,该框架充分利用标注样本来提取有效的局部特征和细节信息,能在一定程度增强训练效果,提高检测精度。在全监督深度学习的理论研究历程中,CNN模型的提出是非常具有里程碑意义的,其重要意义在于为后期模型算法的研究指明了方向。该模型利用池化层增加感受野的有效范围并进行特征融合,有效提高了模型的特征提取能力,但连续的下采样操作,会导致部分病灶信息丢失,极大地影响了模型的检测效果。针对上述问题,在CNN基础上,研究人员又提出了许多新方法,根据方法的改进特点不同,将其分为基于增加感受野的方法、基于特征融合的方法、基于编码-解码器的方法、基于目标检测的方法和基于网络融合的方法。

2.1.1 基于增加感受野的方法

深度学习方法中感受野(receptive field)[19]是指CNN各层特征图上的像素点在原图像上映射区域的大小。在视网膜病灶检测领域针对小目标的信息限制,采用增加视觉感受野的方法提高模型的特征表达能力,用于获取检测目标更为丰富的特征信息,进而提高小目标病灶的检测精度。

CNN模型在对图像进行目标检测时,其池化层会不断增加感受野的有效范围,融合背景信息,但该过程同样存在图像多尺度、卷积模型不变性和特征分辨率降低的问题,为此,Fisher等人[20]提出可进行密集预测的空洞卷积,又称扩张卷积,其以维持图像分辨率为基础,在保证覆盖范围的同时增加视觉感受野。在早期DR诊断中,需要特征稠密、定位精确和分辨率高的特征图像检测病灶区域,为此研究人员开始使用空洞卷积改善特征图像的分辨率、网络的运行速率与健壮性等。在ISBI-2018中,韩国VRT团队采用步长为1的3×3空洞卷积取代原始模型的最大池化层,用于提取密集特征,实现语义分割。但该模型在训练阶段对小病灶的识别能力较弱,而对其他背景信息学习较多,从而导致检测效果不佳。为解决上述问题,Jiang等人[21]运用多个不同扩张率的空洞卷积对标准卷积进行替换操作,以此维持原网络的感受野区域和原图像的分辨率,不断提高模型的特征表达能力和运算速度。空洞卷积的引入解决了特征分辨率与感受野之间的固有矛盾,同时采用多个空洞卷积能获取更丰富的细节信息,细化病灶检测结果,但无目的地增加感受野会造成信息冗余、空洞卷积操作无效和网络性能下降等问题。为此,纪玲玉等人[22]引入多视野关注模块(MFA),以控制不同感受野分支的信息流,在提高特征分辨率的同时加强每个分支有效信息的权值,减少信息冗余。MFA作为轻量化模块,在设计时侧重于控制信息流,没有解决多个平行分支所带来的网络参数量增加问题,可采用MobileNetv2、ShuffleNetv2等轻量化模型,在保证病灶检测精度的同时降低计算复杂度。

由上述分析可知,基于增加感受野的方法具有以下优势:(1)采用空洞卷积可以在保证图像空间维度的同时扩大感受野的有效范围,减缓特征图分辨率的下降速度,使细节信息更加丰富,适用于随着网络加深需要维持目标空间维度的任务。(2)空洞卷积通过提高采样率获取范围更广的感受野以解决模型分辨率与感受野之间的固有矛盾。(3)采用多个空洞卷积能更加快速地提取病灶特征,更为有效地细化检测结果。

但该方法也存在以下问题亟需解决:(1)在实际应用中,采样率过大容易导致空洞卷积操作无效或计算复杂度剧增,可添加1×1卷积或深度可分离卷积以降低模型参数量和计算复杂度,提高模型检测速度。(2)空洞卷积的卷积核形状相对固定,导致网络适应图像尺寸变化和提取不规则形状病灶特征的能力相对较差。(3)循环反复应用空洞卷积会造成棋盘效应,也会使部分病灶特征遗失,占用大量运行空间,消耗大量内存。

2.1.2 基于特征融合的方法

为避免循环利用空洞卷积引发的棋盘效应,研究人员采用特征融合技术提高网络的特征表达能力。特征融合技术通过融合不同区域、不同层次的特征获取图像中隐含的上下文信息,能有效提高网络的检测速率和检测性能,也能大幅降低运行消耗,从而避免基于增加感受野方法所导致的问题。

在特征金字塔网络(Feature Pyramid Networks,FPN)[23]之前,多数病灶检测方法均使用单层特征进行预测,没有在低层特征图添加高层语义信息,但在小病灶检测中,高层语义信息尤为重要,FPN通过调整低层特征和高层特征的连接形式,丰富不同尺度特征的语义信息,以解决网络依赖于单一层级区分特征的问题。因此研究人员基于FPN思想对CNN网络进行相应改进,使其适应包含不同病变特征的图像数据。Sarhan等人[24]提出一种嵌入三重态损失的多尺度病灶检测模型以获取图像的高层语义信息,增强网络的特征表达能力。但由于MA边缘模糊且形状不规则,模型在血管周围容易发生误检、漏检情况,从而降低检测精度。不同于网络训练优化,Sun等人[25]注重结构改进,利用ResNet自上而下的路径构造七个不同尺度特征图,通过级联融合各尺度特征图像的语义信息,获取丰富的病灶特征。但通过简单的级联融合低层级和高层级语义信息会导致部分语义丢失,为此,Qilei等人[26]提出一种底层特征保留结构,用于恢复底部特征图像分辨率至原图像大小,以此保留低层语义信息,提高病灶检测精度。上述病灶检测方法基于CNN架构进行改进,但其最大池化层无法充分利用全局语义信息,从而造成特征损失。为解决上述问题,杨知桥等人[27]引入残差多尺度池化模块,通过结合平均池化和最大池化编码丰富的上下文语义信息。该模型通过加强特征交流有效提高MA检测精度,但眼底图像中同时存在多个病变,单一地识别病灶无法辅助医生精准诊断病情,需开发有效的算法以检测更多可识别病变。

由上述分析可知,基于特征融合的方法具有以下优势:(1)特征融合技术将不同层级和不同区域的特征图进行拼接融合,逐步细化检测结果,优化大计算量与高内存占比等问题,适用于需要多尺度目标信息的任务。(2)在特征的提取阶段,通过融合具有细节信息的低层特征和具有语义信息的高层特征,丰富低层特征图像的语义信息。(3)在特征利用阶段,通过融合各层级特征更有效地利用全局上下文信息,不断提高检测速度。

但该方法也存在以下问题亟需解决:(1)CNN模型具有多层结构,采用简单的融合技术容易导致低层特征信息丢失,因此开发有效的特征融合策略是未来需要探索的方向。(2)FPN模型可以丰富图像语义信息,但其网络结构由人工设计,融合效果并非最好,基于网络架构搜索寻找最优FPN模型是一个良好的解决方案。(3)传统CNN模型的全连接层针对指定维度的特征向量进行分类,因此只能接受固定大小的输入图像并进行一对一预测。但随着检测任务复杂度的增加,通常需要进行密集预测,一对一预测的方式已经无法满足需求。

2.1.3 基于编码-解码器的方法

基于编码-解码器的方法采用卷积层替换CNN的全连接层,用于接受任意分辨率的输入图像,实现密集预测;采用上采样操作处理低分辨率图像,用于解决因连续下采样导致图像分辨率下降的问题,高度还原图像的维度数据和像素的时空信息。当前,越来越多的医学图像分割技术用于检测病灶区域,并取得了较好的分割效果,其主流框架为Encoder-decoder模型,如Ronneberger等人[28]提出的经典图像分割结构U-Net。如图1所示,该模型具有完全对称的U型结构,其通过特征提取和跳层连接融合待分割区域的低层级和高层级信息,用于准确定位目标像素点,完成目标区域的语义分割任务。现有研究多数通过血管分割间接进行病灶检测。

图1 基于U-Net结构的视网膜病灶检测框架Fig.1 Retinal lesion detection framework based on U-Net structure

U-Net模型在病灶检测过程中,其下采样阶段连续的卷积和池化操作会丢失许多上下文信息,使得上采样阶段难以完全恢复目标病灶的细节信息和空间维度,导致输出结果不清晰,最终降低病灶检测精度。为此,Gu等人[29]受扩张卷积、Inception-ResNet-V2模块启发,提出上下文提取模块以编码多层级语义特征图,获取全局上下文信息。该方法通过提取更抽象的高层次特征和保留更丰富的空间信息,有效减少下采样阶段丢失的病灶特征,但该模块不善于提取新的病灶特征,且受背景信息干扰,其检测精度难以达到预期效果。为解决上述问题,Li等人[30]基于改进的attention模块提出一种敏感连接注意力网络,用于提高模型对小病灶的识别能力,减少背景信息干扰。该方法在保证细节信息的同时有效提高模型识别病灶的注意权重,从而增强相关特征,减少假阳性预测,但随着网络层数的加深,会出现模型退化、梯度消失等问题。为此,Alom等人[31]结合循环卷积和残差连接以替换U-Net模型的原始子模块,其检测准确率达到97.12%。该方法在增强特征表达的同时有效克服模型训练阶段存在的梯度消失问题。上述改进通过引入attention模块、上下文提取模块和循环卷积获取更全面的病灶特征,细化检测结果,但该结构无法增加网络模块间的连接,因此数据流路径数量没有发生改变。为解决上述问题,Zhuang等人[32]采用加法代替U-Net中跳连使用的级联,两个并行的U-Net对应层也使用加法,以此达到信息成倍流通的目的,其检测准确率达到96.56%,证明了该方法的可行性。

上述改进提升了U-Net模型的检测精度,但由于DR图像涉及隐私和标注成本过高的问题,其数据集规模较小,基于小样本数据训练的网络模型抗干扰能力较弱,且在训练阶段容易出现数据偏差或域偏移问题。为解决此类问题,Wei等人[33]在瓶颈处多次使用单门控递归单元(SRU)用于重复网络结构,以此细化血管分割。该方法在保证检测精度的同时减轻参数过多对内存产生的负担,实现了在计算能力和数据集有限的情况下训练模型。但基于特定数据集的改进方法,泛化能力较弱,可采用网络改进或训练优化以提高模型的泛化能力。Qi等人[34]在给定目标病灶边界模糊和类别极度失衡的数据情况下,采用复制合并策略重复利用扩展路径中的特征信息以生成病变分割图。但该模型产生的分割图存在高噪声与低对比度,分割结果较差,在检测过程容易出现漏检情况,需增强模型的抗干扰能力以生成具有高对比度和边界增强的病灶分割图。

现有研究多数通过增加网络的复杂度和深度,提高模型的非线性表达能力,但该方式也增加了模型的参数量和计算量,降低了运行速度。为此,Geng等人[35]添加深度可分离卷积,通过分离空间信息和通道卷积,有效减少网络参数和冗余计算量,但其自适应能力较差,无法捕获血管的形状与尺度信息,从而遗漏部分小目标病灶。为此,梁礼明等人[36]结合深度可分离卷积和可变形卷积,通过较小的计算量自适应捕捉血管的形变信息,以准确辨别血管和非血管区域。但该方法仍存在冗余特征,导致模型训练出现波动,分割性能不稳定,可采用网络剪枝和稀疏化以稳定地优化模型结构。不同于上述方法,Boudegga等人[37]采用更轻量级的3×3卷积代替标准卷积,并加入1×1卷积以更好地保留空间信息,在保证检测精度的同时减少模型参数量,提高运行速度,使检测性能和执行时间达到更好的平衡。但是,无论模型的检测精度还是检测速度都距离移动设备的真实需求存在较大差距,因此还需不断研究与开发适宜移动端真实需求的检测模型。

由上述分析可知,基于编码-解码器的方法具有以下优势:(1)采用编解码器结构能有效恢复目标空间信息,改善特征图像分辨率,解决对不同尺寸的输入图像产生像素级别输出的语义预测问题,适用于保存图像空间信息的图到图任务。(2)采用attention模块、上下文提取模块和循环卷积解决因连续卷积池化操作导致空间和细节信息丢失的问题。(3)采用桥连接结构和DenseNet思想增加数据流路径数量。(4)采用深度可分离卷积和更轻量化的3×3卷积降低算法复杂度,减少模型参数量,提高模型检测速度。(5)通过重复网络结构解决因数据匮乏导致网络训练困难的问题,类似的技巧还有训练数据标签。

但该方法也存在以下问题亟需解决:(1)由于眼底图像结构复杂且病灶形状多样,网络的检测性能会大幅降低,通过引入残差连接、密集连接等处理模块,获取更有效的细节信息。(2)U-Net模型采用固定参数的上采样操作,在对图像尺寸要求较高的病灶检测任务中,其采样效果较差,且输入图像与输出结果尺寸不一致,尝试可学习上采样进行改进,但其计算复杂度较高。(3)U-Net模型采用跳层结构改善上采样操作导致的粗糙结果,但通过简单融合方式获取的特征图像效果不佳。(4)U-Net没有考虑像素间的局部依赖关系,使其易受外部特征干扰,对边界模糊的病灶区域,其特征提取和表达能力有待加强。(5)网络复杂度较高,参数量较多,计算量过大,训练时间较长。

2.1.4 基于目标检测的方法

Faster R-CNN[38]是一种端到端训练的目标检测框架。该网络框架通过添加RPN[39]层,将提取的候选区域融入神经网络,有效解决单独候选区域模块运算量过大的问题,提高了模型检测速度和精度。因其检测效率更高,更加适用于小目标病灶的检测任务。

在病灶检测任务中,由于病灶自身形态、尺度等方面的差异以及视网膜复杂的内部结构,经常存在难分样本,而网络模型正是需要侧重学习难分样本。在训练过程中,直接采用难易样本失衡的数据训练网络模型,会导致网络预测出现偏差,训练一个高性能网络是一件具有挑战性的任务。为此,谢云霞等人[40]引入在线困难样本挖掘机制(OHEM),以重点学习难分样本,有效解决了因难易样本失衡导致网络预测出现偏差的问题,其检测精度达到95.8%。然而,OHEM将单一的兴趣区域(Region of Interest,ROI)生成网络拓展为两个结构相似的ROI网络,增加了模型参数量,提高了网络训练难度。不同于网络结构优化,鲁品肃[41]通过结合预测回归框定位和二分类交叉熵提出联合损失函数,以解决难易样本失衡问题,不断提高病灶检测精度。但其收敛速度受模型学习效果影响,稳定性较差。

上述改进使得Faster R-CNN在病灶检测精度上有了初步提升,但Faster R-CNN在进行下采样和ROI池化时需对特征图尺寸进行取整运算,这使病灶检测任务的精度深受影响。为此,He等人[42]提出Mask R-CNN算法。该算法舍弃对特征图像大小的取整操作,提出使用ROI Align层替换ROI Pooling层,并采用双线性插值法对非整数位置的像素进行填充,不断减小下游特征图谱向上游映射时产生的位置误差,从而有效提升检测精度,克服类内误差,图2为Faster R-CNN和Mask RCNN的结构对比图。

图2 Faster R-CNN和Mask R-CNN的结构对比图Fig.2 Structural comparison chart of Faster R-CNN and Mask R-CNN

在高分辨率视网膜图像中,部分病灶与眼底组织具有极高的相似度,因此在检测过程极易出现误检情况,从而导致假阳性预测。为此,Farzan等人[43]采用更加高效的Mask R-CNN作为骨干网络,通过降低anchor设置,检测眼底图像中小于8×8像素的分散病灶区域,以提高模型的病灶识别能力。该方法虽然取得了良好的检测精度,但没有考虑全局上下文信息和多类别特征,边缘检测结果较为模糊。

由上述分析可知,基于目标检测的方法具有以下优势:(1)基于目标检测的方法可提高模型检测精度,加快网络运行速度,有效减少网络训练时间与测试时间,实现端到端训练。(2)通过引入OHEM机制和联合损失函数,使网络模型更加关注困难样本,正负样本比例更加平衡,从而避免网络预测出现偏差。(3)通过减小anchor尺寸提高小病灶的检测精度,类似的技巧还有添加unpooling层,以此获取更丰富的病灶细节信息。

但该方法也存在以下问题亟需解决:(1)anchor的设定参数需要覆盖目标病灶的尺寸和宽高比,由于anchor需要提前设置,在训练过程中无法自适应变化,因此基于模型自主学习anchor成为当前研究热点。(2)从Faster R-CNN到Mask R-CNN,新的网络结构是主要改进方式,但其仍然缺乏对训练中关键因素mini-batch的关注。(3)虽然Mask R-CNN在一定程度提高了检测速度,但作为两阶段检测框架,仍然无法满足实时需要。

2.1.5 基于网络融合的方法

上述基于单网络的模型改进方法虽然在病灶检测领域表现良好,但其提取的特征类型单一,无法覆盖所有细节信息,导致病灶边界模糊。采用多个网络融合的方式,能充分利用不同网络的特性,分阶段提取病灶特征,提高模型检测精度。

针对当前检测任务存在大量假阳性病灶的问题,Noushin等人[44]串行连接两个完全相同的网络。该模型采用由粗到细的策略,其中第一个网络进行粗略定位,将生成的病灶初始像素概率图作为第二个网络的输入,用于精准检测病灶区域。但级联路径中两个CNN模型都重复提取相似的底层特征,导致模型参数和计算资源的冗余使用。为解决上述问题,Jiang等人[45]使用三个并行的主流深度学习网络Inception-V3、ResNet-152、Inception-ResNet-V2,联合训练三个架构,通过Adaboost算法集成三个网络输出以获得最终检测结果。此外该方法将病灶检测问题转化为多标签分类问题,有效减少单一偏见对模型的影响,从而提高模型鲁棒性。由于病灶在眼底图像中占比小且形状差异较大,上述以全局图像作为输入的模型存在病灶信息丢失的不足。为此,Muhammad等人[46]结合RES-Net、DENSE-Net、NTS-Net和SBS层构建多分支集成学习检测模型,分别用于提取图像的局部和全局特征信息。该方法使用多个并行网络结构聚焦高分辨率图像中小目标病灶信息,提高模型检测精度,但集成网络计算代价高,内存占用大,时间消耗长。

由上述分析可知,基于网络融合的方法具有以下优势:(1)结合不同网络的优点,构建多类别特征融合,有效解决因模型单一导致信息丢失的问题,提高模型鲁棒性。(2)提高模型识别率且融合模型比单一模型具有更好的尺度不变性。但该方法也存在以下问题亟需解决:(1)集成网络从特征表达层面对多类别图像信息进行融合,因此选择合理的特征提取层以减少特征冗余是今后需要探索的研究方向。(2)存在模型设计困难、计算量大、训练时间长和消耗大量内存等问题,可通过结合多个GPU和探究合理的学习策略进行改进。

综上所述,全监督学习模型的利用使病灶检测精度实现了大幅提升,研究人员串行使用空洞卷积以深入提取语义特征,从而实现高精度检测。但该过程会造成棋盘效应,也会占用大量运行时间,消耗大量内存,为此,研究人员通过特征融合方法提取多层级、多区域特征,以此降低特征损失和内存消耗。但上述方法只能接受固定大小的DR图像,为解决这一问题,研究人员提出基于编码-解码器的病灶检测方法以支持任意尺寸输入,恢复病灶空间信息,实现像素级分类。但采用编解码结构会导致网络参数增加,计算复杂度提高,模型收敛速度降低等问题。为此,研究人员提出采用更加高效的Faster R-CNN和Mask R-CNN检测网络,以提高病灶检测的精度和效率。基于网络融合的检测方法存在模型设计困难和内存占比过大等问题,后续研究可尝试结合多个GPU以及开发优化模型等方法,结合不同模型的优点,弥补单一方法的局限性,达到更优的检测效果。

2.2 基于非完全监督的病灶区域检测方法

基于全监督的深度学习方法虽然在病灶区域检测领域取得了良好的成绩,但该方法需要大量像素语义标注的样本数据,然而视网膜图像数据的标注通常需要多个该领域经验丰富的专家共同完成,且标注成本高、花费时间长,导致用于训练的高质量标注样本非常有限。因此,如何在标注样本较少的条件下提高模型的检测精度已成为当前的研究热点。以半监督和弱监督学习为代表的非完全监督检测模型是解决此类问题的有效方法。常见的DR图像非全标注类型包含部分像素语义标注和图像级标注两种类型,本节针对这两类问题,将非完全监督检测方法分为基于部分标注的检测方法和基于图像级标注的检测方法[47-48]。

2.2.1 基于部分标注的检测方法

由于像素语义标注样本的获取需要花费大量的精力和时间,因此专家只对数据集中部分图像进行像素语义标注。针对只有部分数据含有像素语义标注的问题,研究人员提出一系列基于自训练(self-training)、联合训练(co-training)、增量学习(incremental learning)、知识蒸馏(knowledge distillation)和生成对抗学习等思想的病灶检测模型。为提高模型的病灶识别能力,Zhao等人[49]提出一种结合co-training、attention模块和生成对抗学习的半监督学习方法用于提高模型的检测性能,检测精度达到95%,但模型受生成的伪标签质量影响,其稳定性较差。Ren等人[50]基于相似度计算和矢量量化技术解决病灶检测领域假阳性率过高的问题,其准确率相较于基于self-training和co-training思想的医学图像检测模型分别提高2%和1.5%,有效证明了该检测模型的可行性。但该方法仍需像素标注样本训练模型,没有完全解决像素语义标注困难和数据小样本性的问题。

由上述分析可知,基于self-training和co-training思想的网络框架是病灶检测领域最常见的半监督模型之一,通过学习伪标签以及持续更新的迭代过程,在一定程度缓解了因高质量标记数据匮乏导致网络训练困难的问题。但该算法也存在以下问题亟需解决:(1)其性能依赖于生成的伪标签质量,网络会不断放大学习到的错误标签从而影响最终的检测结果。由于视网膜图像中病灶形状不规则且类间差异较小,仅参考网络本身提供的特征信息,无法生成稳定的高质量伪标签。(2)像素语义标注困难的问题仍然没有解决,且利用像素语义标注样本训练的网络存在一定局限性,因此应将研究重点放在基于图像级标注的检测方法中。

2.2.2 基于图像级标注的检测方法

相比于部分像素语义标注,图像级标注具有过程相对简单,获取相对容易,工作量相对较小的优势和特点。因此,该方法逐渐在非完全监督学习方法中成为主流。

当训练数据只含有图像级标注时,经典全监督学习方法不能有效应用。为解决上述问题,Costa等人[51]合理引入多实例学习框架,通过联合优化实例编码和病变等级分类任务,获取DR图像中表达力更强的中级特征用于病灶检测,其准确率达到96%。然而上述模型在学习过程中,使用反复迭代操作进行训练,其检测结果通常与实际标签之间存在较大差异。Quellec等人[52]利用卷积概率模型和t-SNE检测缺血性视神经病变、乳头水肿等罕见病灶,以此有效克服模型训练需要大量像素语义标注样本的限制。但该数据集的图像标签由一名专家进行标注,受个人经验与主观性差别影响较大,应由多位专家共同标注,以适应主观性变化。上述方法在病灶检测领域取得了良好的效果,但CNN的输出结果为概率图矩阵,矩阵中数据表示各像素点属于背景组织或病灶的概率,模型在病灶检测过程中经常忽略像素间的空间关系。为此,Waleed等人[53]使用GAP层替代传统监督模型CNN的稀疏全连接层,通过融合特征图的空间分辨率信息提高模型的病变识别能力。但该方法并未取得良好的检测效果,在此基础上,丁英姿等人[54]使用GMP层代替GAP层以替换全连接层,通过连通区域计算不断提高模型的病变定位能力。但其训练样本相对较少,需结合强化学习算法以提高模型的自优化能力。不同于内部网络结构优化,孟凡奎等人[55]外接条件随机场(Conditional Random Field,CRF),通过恢复图像局部特征,获取对象类之间的细节信息以精准定位病灶区域,其检测精度达到98.5%,有效解决了因卷积模型不变性导致位置信息丢失的问题。但上述基于单模态数据的病灶检测模型提取的信息类别单一,为此,Ling等人[56]利用临床报告中少量的监督信息训练特征空间中图像对文本的映射模型用于病灶检测。该模型通过消除低级图像特征和高级诊断信息之间的语义鸿沟,丰富眼底图像信息,使其达到更优的检测性能。但受隐私保护等方面的限制,临床诊断信息难以获取,病灶检测领域通常面临模态数据缺失的问题。

由上述分析可知,基于图像级标注的检测方法具有以下优势:(1)提高对缺乏数据支持的高严重级别病变的检测性能,在一定程度克服了数据缺乏和数据不可用的难题,降低了图像标注的成本。(2)通过GAP层和GMP层获取像素间的空间位置关系,以精准定位病灶区域。但该算法也存在以下问题亟需解决:(1)与像素语义标注相比,图像级标注的方法相对简单粗略,单纯的非完全监督病灶检测框架很难取得符合预期的检测效果。尝试扩展目标区域,挖掘监督信息、结合全监督学习等多种方式,实现非完全监督检测方法质量的有效提升。(2)全监督学习和非完全监督学习相结合可取得更好的检测结果,但该方法仍然无法避免对大量精确标注样本的需求,因此开发合理的联合算法以进行协作学习是重要的研究方向。

综上所述,基于深度学习的病灶检测方法可获得DR图像中不同病灶的具体可分性表示特征,从而不断提高检测精度,但该方法依旧存在以下问题亟需解决:

(1)提出更适合非完全监督训练方式的网络模型。非完全监督的学习更符合人脑的思维方式,而目前多数病灶检测框架采用从带有像素语义标记的图像样本中学习的完全监督模型,在数据标注方面耗费大量的精力和时间。此外,多数神经网络在全监督模型训练下可以获得较好的成绩,但移植到非完全监督模型后其效果显著下降,探寻数据本质特点,设计更合适的网络模型值得研究。

(2)压缩计算量。轻量级的神经网络更易于嵌入便携式医疗设备,赋予其强大的诊断功能。目前多数模型采用深度可分离卷积、HetConv、3×3卷积块等针对卷积核的结构化剪枝方法,尽管这些方法在GPU与CPU上速度提升显著,但剪枝卷积核与卷积通道会影响下一隐含层的输入,导致网络精度受损严重。因此如何利用网络剪枝和稀疏化稳定地优化网络,以较小的精度损失代价简化网络结构和压缩计算需求值得研究。

(3)特殊目标检测的问题。在DR眼底图像中,同时存在多种形状不规则、尺寸变化大的病灶区域,且部分病灶与眼底组织相似,其检测难度远大于标准目标。现有研究通过可变形卷积自适应学习感受野,但该卷积需要较大计算量,因此级联多个可变形卷积一定程度降低了模型的运算速度。如何在保证计算速度的同时,实现更高的检测精度,是今后研究的重要方向。

(4)实现超大尺寸图像的检测。随着医学图像采集设备的发展,图像分辨率将持续提升,超广角图像将成为病灶检测领域的主流。但现有的深度学习检测框架无法满足这一需求,直接采用高分辨率图像训练神经网络,计算量和时间成本较大,同时在超高分辨率图像的处理方法和效率方面也存在很大挑战。从技术发展趋势来看,针对超高分辨率图像的检测也是该领域重要的发展方向。

(5)对检测结果进行不确定性分析。不确定性分析旨在让模型输出检测结果的同时,指出不确定的检测部分,需要人工进行修正。但现阶段多数病灶检测算法仅输出确定性的结果图,没有探索不确定性分析在病灶检测中的应用。允许医生根据网络预测的不确定性检测结果进行修改,以提升检测质量,这是实际场景和理论结合的重要环节,也是视网膜病灶检测领域未来研究的重点。

3 小样本问题的处理

基于深度学习的病灶检测模型在训练过程中,通常面临数据量偏小的问题。然而基于小样本构建的网络模型稳定性差,无法推广至其他样本集使用,导致深度学习模型在临床难以普及。现有研究通过迁移学习和生成对抗网络方法解决因数据缺乏导致检测模型训练困难的问题。

3.1 基于迁移学习的方法

直接迁移学习[57]方法利用大规模数据集对神经网络进行预训练,然后将预训练的神经网络进行微调,应用于其他检测、分类任务,以此解决小样本学习问题。除此之外,应用于医学领域的常用迁移学习方法还包括半监督迁移和跨域适应等方式。半监督迁移学习方法旨在解决源域数据和目标域数据失衡的问题,其通过源域的丰富数据与标签帮助解决目标域因数据稀少导致性能差的问题。跨域适应旨在从包含丰富信息的相关源域数据获取与疾病诊断关联的知识,以此提高模型性能。

如今,迁移学习方法已经广泛应用于病灶检测领域。Mihir等人[58]基于预训练网络利用视网膜图像数据进行迁移学习,通过微调原始网络参数达到病灶检测的目的。但基于迁移学习的检测模型在特征输出过程存在一个缺点,即参数量过大,容易产生过拟合,降低图像深层特征的获取量。为解决上述问题,连超铭等人[59]采用平均池化层代替全连接层以提取深层特征,通过微调原始网络参数解决样本差异,有效避免训练过程发生过拟合问题。上述方法采用ImageNet预训练模型作为骨干网络,以此实现病灶检测,但源域样本和目标域样本的抽象特征存在较大差异,因此模型对小病灶的识别能力较弱。为解决特征提取方面存在的缺陷,Saeed等人[60]提出PCA技术与迁移学习结合的方法实现病灶检测,其准确率达到98.88%。该方法对辅助临床医生提高病变诊断准确率具有重要作用,但迁移层与迁移量的选择需结合经验知识,通过实验进行验证。

由上述分析可知,基于迁移学习的方法具有以下优势:(1)采用预训练网络作为基础,能有效获取多尺度特征和网络的初始化参数,降低网络训练成本,适用于所有病灶检测任务。(2)有效解决因数据稀缺导致模型泛化能力较弱的问题,不断提高模型鲁棒性。(3)采用平均池化层和PCA技术可有效提高模型的特征提取能力,获取更精准的病灶检测结果。

但该方法也存在以下弊端:(1)采用ImageNet预训练模型在训练早期可加快运行速度,但无法确保最终提高病灶检测精度或带来正则化效果,容易产生负迁移问题。(2)模型结构较为固定,灵活性较差。(3)源网络与目标网络的迁移层由人工设定,且对所有特征映射进行迁移,缺乏合理的迁移策略和先验知识。(4)视网膜图像的复杂度较高,病灶形态差异大,选择合适的微调策略,将迁移学习更加有效地应用于病灶检测领域还需进一步研究。

3.2 基于生成对抗网络的方法

生成对抗网络(Generative Adversarial Networks,GAN)[61]是一种以对抗训练方式进行学习的深度网络模型。在基于GAN的视网膜图像扩增方法中,生成器用于生成病灶图像,鉴别器用于细化生成器的训练。基于GAN的视网膜图像扩增框架如图3所示。

图3 基于GAN的视网膜图像扩增框架Fig.3 Retina image augmentation framework based on GAN

基于FFA图像的血管检测可有效提取MA等小病灶特征信息,但FFA图像的获取需注入造影剂,部分患者存在恶心、呕吐、休克等危机生命的并发症,因此医学图像分析领域采用跨模态图像合成方法以扩增FFA图像数据。Alireza等人[62]提出一种条件生成网络用于FFA图像数据扩增。该网络作为FFA图像生成器,采用编码-解码器结构,并结合多层次特征级联。在训练过程采用对抗网络来区分真实图像和生成图像,通过不断地对抗训练进一步提高图像质量,实现了不同模态间图像的转换。但在实际应用中,缺乏评估图像质量的统一标准,并且难以量化生成器如何生成高质量图像。为此,研究人员提出相应的算法以解决GAN在训练过程存在的问题。陈志远等人[63]结合3×3卷积与残差卷积,通过增加梯度恒等映射通道解决GAN训练过程存在的梯度消失问题。尽管上述方法取得了良好的进展,但这项工作没有考虑眼底图像中粗细血管的差异,降低了生成图像的多样性。为此,Rammy等人[64]引入附加损失函数以学习精细的眼底血管模式,从而生成高分辨血管分割图。但该模型的稳定性较差,无法依据损失函数的数值判断模型收敛性。

由上述分析可知,基于生成对抗网络的方法具有以下优势:(1)GAN采用对抗学习方式对未知的分布进行有效建模,以此生成清晰、真实的样本数据,有效解决数据稀缺问题。(2)GAN能与神经网络结合以构建深度生成模型。(3)由于有限标注数据的扩增,使得深度网络获得充分的训练,最终达到良好的检测效果。

但该方法也存在以下问题亟需解决:(1)基于GAN的图像生成算法依赖于神经网络的非线性拟合能力,因此生成图像质量与多样性的好坏,与神经网络结构有着直接关系。如何设计合适的网络架构,同时保证一定性能是值得研究的问题。(2)在实际应用中GAN需要交替训练生成网络和鉴别网络,因此二者之间的优化需保持良好的同步,从而导致GAN难以训练。(3)随着深度学习的发展,多模态信息融合是一个必然的研究趋势,不同类型的眼底图像包含不同病灶特征信息,但由于采集成本和客观条件的限制,OCT图像和FFA图像难以获取。因此如何利用彩色眼底图像生成更高质量的OCT图像和FFA图像也是值得研究的方向。

4 模型可解释性

神经网络经过改进,能有效融合DR图像中不同层次、不同区域和不同模态的特征信息,从而不断提高模型的检测精度。但神经网络驱动的特征依赖于从大规模训练数据获取的过滤器响应,这些数据可解释性差,导致诊断模型难以在医疗领域得到普及,因此仍需探索有效提高模型解释性的方法。

模型可解释性[65]是指网络以可理解的方式向人类进行解释的能力。在医学图像辅助诊断领域,由于医生在查看模型结果时,更关注结果产生的逻辑过程,因此理想的DR诊断系统不仅能够提供有效的决策支持,结论背后的推理过程也尤为重要。目前,研究人员主要通过类显著可视化(class saliency visualization)和积分梯度等方法[66-67]解释模型检测的推理过程。这些方法利用热力图显示每个像素点或像素区域对检测结果的贡献度,用于观察模型是否根据图像特征检测MA、HE和EX等病变区域,是否根据热力图学习到有意义的偏差。为增强模型解释性,Keel等人[68]采用可标识完整病变区域范围的类激活图(CAM)方法,通过可视化类激活映射突出显示与预测结果最相关的图像区域,以及时调整模型的关注范围。但眼底图像中同时存在多种病变,单一的可视化病灶无法充分推理系统的诊断过程。为获取更多可识别病灶,Son等人[69]通过对CAM进行平均来构造病灶热图,突出显示HE、EX等12种病灶区域范围,以此提高模型的临床接纳度。在病灶检测领域,模型可解释性的研究较为单一,主要采用热力图的形式对CAM进行可视化,但该方法仅提供粗粒度注释结果,仍需探索满足医学诊断领域对高精度解释结果需求的方法。

类激活图等方法通过分析特征对检测结果的贡献程度提供模型解释,扩大临床应用范围,但该方法存在以下问题亟需解决:(1)模型解释过程受样本随机扰动等因素的干扰,具有一定局限性。将专家知识加入模型设计过程,通过专家反馈引导模型构建,促使临床专家把控模型决策过程,是提高模型解释性的潜在研究方向。(2)模型性能与可解释性之间的固有矛盾使二者无法同时达到最优。综合多模态医学数据进行决策,分析各模态数据对决策的贡献,以此模拟医生的临床诊断工作流程,可在保证网络性能的同时实现更全面的解释。(3)采用CAM方法时需修改原模型的结构框架,重新训练模型,导致在实际应用中花费更多的成本和时间。结合梯度加权方法增加模型对病灶的识别能力,提高模型的运行速度,是增强模型解释性的重要研究方向。

综上所述,深度学习方法的多样性和高效性为检测任务的实现提供了技术支持,通过空洞卷积、特征融合、编解码结构、多种检测框架、数据扩增、热力图等方法提高了模型的检测精度和解释性。对上述检测方法进行综合分析,并从主要思想、优缺点和改进措施等方面进行对比总结,如表2所示。

表2 基于深度学习的病灶检测方法总结Table 2 Summary of lesion detection methods based on deep learning

5 算法性能分析

基于深度学习方法的糖尿病视网膜病灶检测已成为图像处理领域的研究热点。传统机器学习采用特征工程,人工提取图像特征,其泛化能力较弱,深度学习方法的出现打破了先特征提取,后病灶识别的固定模式,可同时进行特征提取与病灶检测。上文对各检测算法的改进思路、性能优势和局限性进行了详细介绍。在检测过程中,采用准确率(Accuracy,ACC)、特异性(Specificity,SP)、灵敏度(Sensitivity,SE)、平均精度(Average Precision,AP)、ROC曲线下面积(AUC)和运行时间等指标作为检测结果的评价标准。为对上述方法进行更全面的对比分析,将从提高特征多样性、减少假阳性预测、解决数据稀缺和类别失衡三个方面对高精度检测方法的优缺点和性能表现进行归纳总结,如表3所示。

(1)在提高特征多样性的相关算法中,采用多模态信息融合、CRF、循环连接等方法,提高模型的学习能力与特征表达能力,获取多尺度病灶特征,解决高内存占比等问题,其性能依赖于有效的特征融合策略,适用于需要多类别、多层次目标信息的检测任务。如孟凡奎等人[55]通过融合局部和全局信息,细化检测结果,其检测精度达到98.5%。

(2)在减少假阳性预测的相关算法中,采用attention模块、多阶段学习策略、GAP层等方法,提高模型对病灶的识别能力,以精准定位目标区域,其性能依赖于模型对目标病灶与相似病灶和眼底结构之间的区分能力,适用于需要目标空间信息的检测任务。如Ren等人[50]结合相似度计算和矢量量化技术,通过部分像素语义标注样本训练模型,将检测准确率提高至97.5%。

(3)在解决数据稀缺和类别失衡问题的相关算法中,采用OHEM、附加损失函数、样本扩增等方法,提高网络的稳定性和抗干扰能力,减少过拟合问题的发生,其性能依赖于生成的高质量、多样性图像数据,适用于小规模样本集训练模型的检测任务。如陈志远等人[63]通过样本扩增和残差卷积优化模型训练,以获取健壮的检测网络,其准确率达到99.1%,有效解决了数据稀缺问题。

上述病灶检测方法从不同思路解决相关技术问题,提高病灶检测精度,但该过程也增加了模型的参数量和复杂度。由表3分析可知,研究人员采用MFA模块、共享权重残差块、深度可分离卷积和3×3卷积提出轻量化检测模型,以降低计算复杂度,提高运行速度,其性能依赖于结构化剪枝方法,适用于轻量级的实时检测模型。如梁礼明等人[36]结合深度可分离卷积和可变形卷积,在降低模型参数量的同时精准捕捉血管形变信息。区别于上述方法,Boudegga等人[37]结合更轻量级的3×3卷积和1×1卷积,将检测精度提高至98.19%,运行时间减少至0.59 s,该算法在保证检测精度的同时降低了计算复杂度。因此,需结合轻量化模块和特征提取模块进行改进,使病灶检测算法的精度和计算量达到更好的平衡。

表3 高精度和轻量化病灶检测方法性能分析Table 3 Performance analysis of high-precision and light-weight lesion detection methods

通过上述分析可知,病灶检测算法在检测精度和运行速度方面达到了较高的水平,但由于病灶在高分辨率图像中占比小,通用目标训练的网络模型,存在病灶特征丢失的不足。为此,研究人员提出相应的改进算法,以减少小病灶特征损失。将上述检测算法进行归纳,并对增加感受野、融合语义信息、丰富特征类别、优化网络训练、增强相关特征等主要研究思路的优缺点、适用范围、关键方法和性能表现进行对比分析,如表4所示。

表4 减少小病灶特征损失检测算法的性能对比分析Table 4 Comparative analysis of performance of detection algorithms for reducing feature loss of small lesions

(1)在增加感受野的相关算法中,通过串行多个空洞卷积获取具有高清表示信息的病灶特征图,以解决因提取深层特征导致特征图分辨率降低、尺寸缩减、模型检测精度降低等问题,增强图像空间有效信息,适用于随着网络加深需要维持目标空间维度的任务。如Jiang等人[21]采用多个不同扩张率的空洞卷积以提取密集特征,提高特征图空间分辨率,精细化病灶检测结果。但感受野过大或循环应用会造成卷积操作无效或棋盘效应,形成空间漏洞,出现特征信息遗失等不良问题。

(2)在融合语义信息的相关算法中,通过多尺度特征拼接、添加多尺度池化模块和上下文提取模块,帮助网络更加高效、深层次地捕获图像信息,提取更加细粒度的病灶特征,实现对图像语义更深层次的理解,逐步细化检测结果,提高运行速度,适用于需要目标多尺度信息的任务。如Sun等人[25]通过级联融合不同层次的特征图像,获取丰富的上下文语义信息,降低运行消耗和内存占比。但采用简单的融合技术会导致重要语义丢失,检测边界较为模糊,缺乏有效的融合策略。

(3)在丰富特征类别的相关算法中,集成多网络、多模态数据优势,利用不同模型、不同通道提取的图像特征,获取更加全面的病灶信息,有效避免模型提取特征类别单一的不足,从而提高病灶检测精度,适用于需要多类别目标信息的检测任务。如Ling等人[56]结合多模态信息,通过训练特征空间中图像对文本的映射模型实现多种病灶检测,弥补标签信息缺失,提高特征多样性。但多类别特征融合模型面临设计困难、计算复杂度高、模态数据缺失等问题。

(4)在优化网络训练的相关算法中,通过迁移学习增强模型初始性能,捕获多尺度特征,降低模型训练难度,提高收敛速度。迁移学习技术既有效解决了数据稀缺问题,也防止过拟合问题的发生,提高了模型稳定性,适用于所有病灶检测任务。如Saeed等人[60]通过结合迁移学习和PCA技术,提高模型的特征提取能力,以减少源域和目标域之间的样本差异,获取更精准的病灶检测结果。但基于迁移学习的检测方法缺乏有效的迁移策略和微调策略,需结合先验知识。

(5)在增强相关特征的算法中,由于眼底结构复杂且病灶占比小、尺寸变化大,采用attention机制、降低anchor设置等方法以聚焦目标特征,抑制无关特征,使模型关注更具信息性的图像区域,充分学习病灶特征,增强对小目标病灶的识别能力和定位能力,减少背景信息干扰和假阳性预测,适用于背景信息复杂的小目标检测任务。如Li等人[30]通过改进attention模块,提高模型识别病灶的注意力权重。特征增强算法的应用使计算资源分配合理化,能够更加有效地选择特征信息。

6 总结与展望

近年来,深度学习技术的快速发展使其在病灶检测领域取得了不错的成果。从全监督检测方法中的增加感受野、特征融合、U-Net、Faster R-CNN和Mask R-CNN、多模型融合,到大量非完全监督学习算法,再到迁移学习、GAN和模型可解释性,模型的各项技术指标均在不断提升,但同时也面临诸多挑战。因此,本文基于深度学习框架对病灶区域检测方法进行适当总结,现将研究难点归纳如下。

(1)样本相关问题。小样本性一直都是病灶检测领域所面临的严峻问题,虽然当前开放的视网膜图像数据众多,但大多属于缺乏细粒度注释的小规模数据集,且由于不同数据集的标签异构性,导致研究人员无法直接在检测任务中使用多个数据集。此外,不同研究者提出的病灶检测模型其采用的数据集和评价标准不一,因此无法直接利用检测结果来评判模型的性能优劣。

(2)小目标病灶检测。MA等视网膜病灶在医学图像分析领域属于小目标病灶,与一般医学图像中较大目标相比,其存在体积小、细节特征不完整及信噪比低的特点。在病灶检测过程中,神经网络因卷积池化操作导致部分小病灶信息丢失,从而降低模型检测精度。因此如何在病灶检测过程有效减少甚至避免小病灶特征的损失是当前研究的重要方向。

(3)模型可解释性。由于深度学习的“黑匣子”属性,使得网络模型的内部结构尚不完全透明,可解释性差,阻碍DR筛查系统在医疗领域的普及,虽然已有相关研究对模型的推理过程进行解释,但模型性能与解释性之间的固有矛盾使二者无法同时达到最优。

(4)临床紧密连接性。研究人员在设计DR辅助诊断系统时,缺乏与医院的沟通,导致诊断模型不适用于临床。同时,由于CAD系统没有嵌入医院的影像系统、信息系统,并未真正减轻医生的诊断负担,距离实际临床应用还存在一定差距。

为解决病灶检测领域所面临的问题,今后的研究工作可侧重于以下几点展开:

(1)小数据集下的模型设计。基于小样本数据集训练的模型鲁棒性较差,无法获得稳定的检测结果。在缺乏大规模训练样本集的前提下,结合迁移学习、数据增强和GAN,以设计适用于小规模数据集的网络架构尤为重要,这是实际应用与技术相结合的重要环节。

(2)增强标签注解的多样性。视网膜图像中病灶特征评判标准的个人经验和主观性差别使得不同医生间的诊断具有较大差异,由不同专家提供标签信息或开发合理的算法自动标注,以适应主观性变化,是今后的重要研究方向。

(3)加强多模态数据应用。采用分阶段学习策略或使用GAN解决模态数据缺失问题,是该领域的重要发展方向。而开发有效的多模态数据融合策略也是值得研究的问题。

(4)丰富图像特征信息。采用多模态数据、结合其他相关疾病、利用多个深度神经网络提取更丰富的视网膜图像特征,以此提高模型的检测精度,也是该领域的重要研究方向。

(5)提高模型可解释性。采用胶囊网络等新型框架学习视网膜图像的各种病灶特征,分析每种特征对决策的贡献,从而模拟医生的临床诊断工作,在保证模型性能的同时实现更全面的解释。

(6)加强实际临床需求。将DR辅助诊断系统与影像归档、通信系统、电子病历等医院信息系统进行集成,推动其在临床诊断中的大规模应用。

综上所述,随着深度学习方法的不断优化与发展,未来必将产生更加准确、高效的辅助诊断工具用于糖尿病视网膜病灶检测,为临床诊疗提供有效支撑。

猜你喜欢

卷积病灶特征
基于3D-Winograd的快速卷积算法设计及FPGA实现
Optimal UAV deployment in downlink non-orthogonal multiple access system: a two-user case
PSMA-靶向18F-DCFPyL PET/CT在肾透明细胞癌术后复发或转移病灶诊断中的作用分析
如何表达“特征”
从滤波器理解卷积
不忠诚的四个特征
基于傅里叶域卷积表示的目标跟踪算法
抓住特征巧观察
术中超声在颅内占位病灶切除中的应用探讨
一种基于卷积神经网络的性别识别方法