APP下载

结合局部熵和鲁棒主成分分析的眼底图像硬性渗出物检测方法

2019-09-04陈莉陈晓云

计算机应用 2019年7期

陈莉 陈晓云

摘 要:针对眼科医生诊断眼底图像工作耗时且易出错的问题,提出一种無监督的眼底图像硬性渗出物检测方法。首先,通过形态学的背景估计方法去除血管、暗病变区域和视盘;然后,以图像亮度通道为初始图像,利用硬性渗出物在眼底图像中的局部性和稀疏性,结合局部熵和鲁棒主成分分析方法分解得到低秩矩阵和稀疏矩阵;最后,归一化稀疏矩阵得到硬性渗出物区域。实验结果显示,在e-ophtha EX和DIARETDB1公开数据库上,所提方法在病灶水平上灵敏性为91.13%和特异性为90%,在图像水平上准确率为99.03%,平均运行时间0.5s;与支持向量机(SVM)和K-means方法相比灵敏性高且耗时少。

关键词:硬性渗出物;鲁棒主成分分析;局部熵;背景估计;彩色眼底图像

Abstract:To solve the time-consuming and error-prone problem in the diagnosis of fundus images by the ophthalmologists, an unsupervised automatic detection method for hard exudates in fundus images was proposed. Firstly, the blood vessels, dark lesion regions and optic disc were removed by using morphological background estimation in preprocessing phase. Then, with the image luminosity channel taken as the initial image, the low rank matrix and sparse matrix were obtained by combining local entropy and Robust Principal Components Analysis (RPCA) based on the locality and sparsity of hard exudates in fundus images. Finally, the hard exudates regions were obtained by the normalized sparse matrix. The performance of the proposed method was tested on the fundus images databases e-ophtha EX and DIARETDB1. The experimental results show that the proposed method can achieve 91.13% of sensitivity and 90% of specificity in the lesional level and 99.03% of accuracy in the image level and 0.5s of average running time. It can be seen that the proposed method has higher sensitivity and shorter running time compared with Support Vector Machine (SVM) method and K-means method.

Key words: hard exudate; Robust Principal Components Analysis (RPCA); local entropy; background estimation; color fundus image

0 引言

糖尿病视网膜病变(Diabetic Retinopathy, DR)是糖尿病最严重的并发症之一,而硬性渗出物(Hard Exudates, HE)是糖尿病视网膜病变最重要的早期症状之一,也是糖尿病患者视力损伤或致盲的主要原因。在彩色眼底图像中HE是一种亮的病变区域,表现为边界清晰的蜡样黄白色斑点或斑块,其形状大小各不同[1],而视盘呈近似椭圆形状的亮黄色斑块,微动脉瘤呈暗红色近似小圆点形状,在颜色、结构和纹理上HE与视盘、血管和微动脉瘤等暗红色病变具有相似特征,这导致在眼科医生诊断大量的眼底图像容易出错且耗时,因此快速准确地检测HE是计算机辅助眼底图像筛查和诊断技术一个艰难而关键的问题。

1 相关研究

目前,关于眼底图像中HE的检测主要分为四类方法。

第一类是基于形态学的检测方法。如Welfer等[2]将彩色眼底图像RGB转换为LUV(CIE 1976(L*,u*,v*),CIELUV)彩色空间,在L通道上采用顶帽变换和底帽变换来增强图像的对比度,再利用形态学重建完成HE提取;Walter等[3]先利用形态学闭运算去除血管,然后根据局部阈值得到候选区域,同时去除视盘区域,最后利用形态学重建完成HE的提取。

第二类是基于阈值分割或区域生长的检测方法。如Qi等[4]将RGB眼底图像转为YIQ彩色图像(National Television Standards Committee, NTSC),利用阈值和Krisch边缘算子检测HE;Santhi等[5]提出基于背景修正的自适应区域生长法分割HE亮病变区域。

第三类是基于无监督的检测方法。如曹新容等[6]提出基于邻域约束模型的聚类检测方法,将邻域的最大灰度变化作为约束条件判定是否有HE;Sopharak等[7]提取彩色眼底图像的强度、强度的标准差、色调和边缘等4维特征进行模糊C均值(Fuzzy C Means, FCM)聚类,并且与支持向量机(Support Vector Machine, SVM)、最近邻(Nearest Neighbors, NN)、朴素贝叶斯分类器(Naive Bayes, NB)分别进行对比分析,实验结果显示FCM的检测方法在灵敏性优于有监督的分类方法。Biyani等[8]先从HSI(Hue Saturation Intensity)彩色空间的强度通道采用Ostu阈值分割出视盘,接着用K-means方法分割出候选HE,提取相应的颜色、强度、纹理、中值滤波和像素局部变化五个特征进行K-means聚类得到分割结果,最后用形态学重建完成最后的HE提取。

第四类是基于有监督的分类方法。如肖志涛等[1]先通过背景估计和Kirsch算子的边缘信息确定HE的候选区域,提取灰度、形状和相位一致性等特征采用SVM分类器对候选区域进行分类得到HE的提取。Asha等[9]从LUV彩色空间中提取均值、方差、质心和边缘等18维特征分别采用NB、多层感知机(MultiLayer Perceptron, MLP)和极限学习机(Extreme Learning Machine, ELM)分类器进行HE检测,实验结果显示ELM优于其他两种分类器。Adem[10]将霍夫变换和卷积神经网络(Convolutional Neural Network, CNN)相结合用于检测HE,Parham等[11]比较多个深度学习的模型,实验表明ResNet(Residual Network)的深度学习模型结合SVM效果最好。Amin等[12]将RGB图像转成灰度图像,利用Gabor滤波增强病变的对比度,通过高斯滤波、阈值和形态学重建去除视盘得到候选HE区域,提取这些区域的面积、周长、环状和直径四个特征采用SVM、NB等多种分类器在DIARETDB1(Standard Diabetic Retinopathy Database Calibration level 1)、e-ophtha(e-ophtha Color Fundus Image Database)、DRIVE(Digital Retinal Images for Vessel Extraction)、MESSIDOR(Methods To Evaluate Segmentation And Indexing Techniques In The Field Of Retinal Ophthalmology)、HRF(High Resolution Fundus)等多个公开数据库上进行分类。

尽管已有的检测方法能较好地检测眼底图像中的HE,但以上所述的形态学或阈值等检测方法针对不同的数据库需要调整阈值参数,不具有普遍性;有监督的检测方法(如SVM、NB、ELM等)需专家手动标记HE病变区域为标准,这给临床检测带来很大的困难;CNN检测方法虽不需要选取特征且检测效果好,但需要大量的训练样本且耗时,因此迫切需要一个快速、有效的检测方法来实现眼底图像HE的自动分割。

鲁棒主成分分析(Robust Principal Components Analysis, RPCA)方法,又称低秩矩阵恢复,最早是由Wright等[13]文獻13的作者不是Wright,二者不一致,需调整提出,其思想是当矩阵的某些元素被严重破坏后,能自动识别被破坏的元素并恢复其原始矩阵。将含被破坏的数据矩阵D分解为两个矩阵相加的形式,即D=L+S,其中:L是低秩矩阵,逼近原始数据矩阵;S是稀疏矩阵,即含噪声的数据矩阵。近年来,基于矩阵低秩稀疏分解的鲁棒主成分分析方法被成功应用于图像人脸识别[14]、显著性目标检测[15-17]等计算机视觉领域。从认知科学的角度看,图像信息可以分为背景部分和显著性目标。背景部分代表冗余信息,而显著性目标则代表图像中人们视觉注意的部分[15]。从子空间分析角度看,图像的背景具有较强的相关性,近似位于同一低秩的子空间;而显著性目标与背景差异性较大,偏离该低秩空间,是稀疏分布的。Xiao等[14]将RPCA方法用于人脸识别,将人脸图像分解成低秩矩阵和稀疏矩阵,其中稀疏矩阵代表人脸的局部特征,如眼镜、围巾等面部显著性特征,低秩矩阵则代表去除面部特征的人脸图像。Candes等[17]将RPCA方法用于视频监控的背景建模,稳定的背景部分表示低秩部分,运动的显著性目标代表视频的前景,即稀疏部分。不论是动态的视频还是静态的图像,RPCA都能较好地将图像分解成低秩的背景和稀疏的显著性目标两个部分。

考虑彩色眼底图像的背景在颜色、强度、亮度等像素特征上具有很强的相似性,而HE病变区域与背景差异较大,是局部且稀疏分布的,因此本文将RPCA的思想应用于HE病变区域检测,即将彩色眼底图像通过RPCA方法分解得到的低秩矩阵代表图像背景,稀疏矩阵表示为HE病变区域,提出一种无监督的彩色眼底图像硬性渗出物检测方法,利用形态学的背景估计方法去除血管、暗病变区域和视盘等伪目标,以图像亮度通道Y为初始图像,利用HE病变在眼底图像中的局部性和稀疏性,结合局部熵和RPCA方法得到HE病变区域。该方法不需要专家手动标记HE为标准,不需要选取多个特征且耗时少,给眼科临床筛查和诊断带来很大的便利。

2 本文方法

本文方法流程如图1所示。首先采用形态学的背景估计方法去除血管及暗病变区域等伪目标,并在亮度通道上通过形态学重建和自适应阈值方法分割视盘,然后提取预处理后的亮度通道作为初始图像,结合局部熵和RPCA低秩稀疏分解得到HE病变区域二值图。

2.1 预处理

如图2所示,眼底图像中血管、视盘及暗病变区域(包含微动脉瘤和出血点)与HE区域有相似的颜色、亮度和纹理结构特征,为了去除这些伪目标,本文采用背景估计的方法[1]增强HE区域和背景像素(包含血管、暗病变区域等)的对比度。

先对灰度图像Igray (如图3(b))进行大小为原始图像大小的1/30的中值滤波处理,构建一个灰度图像和中值滤波图像Im(如图3(c))求最大值的掩膜图像Imask(如图3(d));在此基础上以中值滤波图像为标记图像,利用形态学重建提取眼底图像的背景Ibj(如图3(e));将灰度图像与估计的背景图像相减,得到差值矩阵I(如图3(f)),差值小于零的像素即对应灰度图像中的暗区域(包含血管、其他暗红色病变区域)。将这些像素置为零,即去除包含血管和暗红色病变区域等伪目标。

去除血管及暗病变区域等伪目标后仍然存在与HE病变区域相似的亮区域(视盘、邻近血管的神经纤维区域等),因此去除视盘是有必要的。由于视盘在眼底图像中呈亮黄色近椭圆形状,采用形态学重建和自适应阈值的方法分割视盘。先将RGB彩色眼底图像转为YCbCr(Y′CBCR)彩色眼底图像,在亮度通道Y(如图3(g))上进行CLAHE(Contrast Limited Adaptive Histogram Equalization)增强(如图3(h))后作为掩膜图像,采用大小25×25的中值滤波处理(如图3(i))后作为标记图像,将形态学重建(如图3(j))后的图像灰度值范围进行调整,取其最大面积的连通区域进行膨胀处理(采用圆盘结构元素(′disk′,5))为视盘分割结果(如图3(k)),经过多次实验,图像灰度值范围由[0,1]调整为[0.55,0.65]分割效果最好,最后将视盘的像素置为零作为预处理后图像(如图3(l))。

2.2 局部熵

信息熵是图像信息论中用来度量信息量的一个概念,局部熵反映图像某个区域所含信息量的多少。在图像中某个区域含有的信息量越多,则图像对比度越好,更好地突出细节部分;反之,图像灰度变化不大,对比度越差[18]。对于图像的背景,相当于无序的噪声,其局部熵值较均匀且具有较大熵值;对于HE病变区域,灰度起伏较大,信息量较大,其熵值较小。因此局部熵比颜色灰度值更能很好地反映HE病变区域的局部性和显著性。本文定义局部熵[19]为:

以像素点(i, j)为中心的n×n区域进行熵计算,得到局部熵特征。其中pi, j为图像中像素点(i, j)灰度占局部总灰度的概率。

由于人的肉眼对YCbCr彩色空间中亮度通道Y更敏感,因此本文在预处理后的亮度通道上以像素点(i, j)为中心的9×9区域提取局部熵,能更好地反映HE病变区域的局部性。

2.3 结合局部熵和RPCA的检测方法

利用HE病变区域在眼底图像中的局部性和稀疏性,参照传统的RPCA[13]方法,结合局部熵和RPCA低秩稀疏分解方法可表示为下面凸优化的求解模型:

其中根据式(1)计算眼底图的局部熵H,A代表低秩矩阵,S代表稀疏矩阵,λ是正则化参数,用于平衡低秩項和稀疏项的效果。rank(·)是秩函数,表示非零奇异值的个数,l0范数‖·‖0表示非零元素的个数,约束稀疏项。由于式(2)是NP难题,可将范数优化问题松弛为l1范数优化问题,rank函数松弛为核范数,所以上述模型变为:

其中核范数‖·‖(矩阵所有奇异值之和)和l1范数(矩阵所有元素绝对值之和)分别是秩函数和l0范数的最小凸近似。式(3)求解问题可转变为对应的增广拉格朗日函数:

其中Y是拉格朗日乘子, μ>0是惩罚参数,〈·〉表示内积运算,‖·‖F为F范数。采用不精确拉格朗日乘子法(Inexact Augmented Lagrange Multiplier, IALM)求解式(4)过程中,当Y=Yt, μ=μt时,使用交替式方法求解块优化问题minA,S L(A,S,Yt, μt)。固定其余变量,交替更新其中一个变量,直到满足收敛条件为止。具体更新过程如下。

其中ρ>1为常数,ε>0为较小正数,参数μ初始值0.1, ρ=1.5, μk随着迭代的更新增长速度越快,收敛速度越快。在以上更新过程中,更新A时,矩阵H-St+Yt/μt需进行奇异值分解(Singular Value Decomposition, SVD)。算法最后得到背景矩阵A和稀疏矩阵S,然后根据得到的矩阵S进行归一化得到最后的HE病变区域图像。

3 实验结果与分析

3.1 实验数据及评价指标

目前给出HE病变区域专家标记的公开数据库有e-ophtha EX和DIARETDB1。DIARETDB1数据库含有89幅分辨率为1500×1150的彩色眼底图像和不同病变的标记,其中含有HE的图像有48幅,这些图像同时存在出血点、软性渗出物和微动脉瘤等病变。e-ophtha EX数据库是专门用于糖尿病视网膜病变研究的彩色眼底图像数据库,是由法国国家科研署资助的远程DR筛查项目OPHDIAT(OPHthalmology DIAbetes Telemedicine)[20]中建立的e-ophtha数据库中的一个子库,HE病变图像的标记是由TeleOphta(TeleOphtalmology)[21]项目中ADCIS(ADvanced Concepts in Imaging Software)研发的标注软件结合眼科专家的修改意见共同完成的。该库包含103幅彩色眼底图像(包含四种不同尺寸:1440pixels×960pixels、1504pixels×1000pixels、2048pixels×1360pixels、2544pixels×1696pixels),其中有47幅含HE病变图像和56幅正常图像。与其他公开的彩色眼底图像数据库如HEI-MED(Hamilton Eye Institute Macular Edema Dataset)、MESSIDOR、DIARETDB0(standard DIAbetic RETinopathy DataBase calibration Level 0)、DIARETDB1、STARE(STructured Analysis of the REtina)等数据库相比,e-ophtha EX数据库的HE病变标记更精准,可作为HE检测结果的病灶水平评价标准[22]。

对于HE检测方法性能的评价标准主要有基于病灶水平和基于图像水平。基于病灶水平的评价标准:每幅眼底图像若检测出的病变区域(像素)与专家标记的病变区域(像素)一致则为真阳性(True Positive, TP),否则为假阴性(False Negative, FN);同理检测出的非病变区域(像素)与专家标记的非病变区域(像素)一致为真阴性(True Negative, TN),否则为假阳性(False Positive, FP)。本文选用区分度较高的灵敏度和特异性为主要评价标准本文选用区分度较高的灵敏性和特异性作为基于病灶水平的主要评价标准此句与下句描述冲突,是否可删除此句,请明确;基于图像水平的评价标准是以图像中含有HE病变区域(像素),则为异常图像(TP),否则为正常图像(TN)。本文则选用准确度、灵敏性和特异性为主要评价标准。本文则选用准确度、灵敏性和特异性作为基于图像水平的主要评价标准。在此基础上,给出灵敏性、特异性等三个评价标准:

3.2.1 不同颜色通道检测结果分析

YCbCr彩色空间中Y是指亮度通道,Cb指蓝色色度通道,而Cr指红色色度通道。人的肉眼对Y通道更敏感,因此本文在YCbCr的亮度通道(Luminance, Y)、RGB的绿色通道(Green, G)、HSI的强度通道(Intensity, I)和HSV(Hue Saturation Value)的亮度通道(Value, V)上提取局部熵分别检测,从表1所示的实验结果可以看出在病灶水平上YCbCr亮度通道的检测结果灵敏性和特异性比其他颜色通道好。

3.2.2 局部熵检测结果分析

由于局部熵比颜色灰度能更很好地反映HE病变区域的局部性和显著性,本文分别提取亮度灰度(如图4(b))和局部熵(如图4(c))检测HE病变区域实验,实验结果从图4(e)和(f)可以看出提取局部熵检测结果比亮度灰度检测结果更接近专家标记。

3.2.3 参数选择分析

RPCA检测方法中平衡参数λ用于平衡低秩矩阵和稀疏矩阵,λ取值大小影响最后HE的检测结果好坏。本文取λ=[0.1 0.2 0.4 0.8 0.01 0.02 0.04 0.08 0.001 0.002 0.004 0.008 0.0001 0.0002 0.0004 0.0008]共16个值分别进行实验。实验结果如图5所示,λ≥0.001时对稀疏矩阵的影响较小,灵敏性和特异性普遍较高,当λ=0.004时灵敏性最高,特异性较高,视为最优。

3.2.4 对比分析

本文在病灶水平的评价标准上验证本文方法的有效性且耗时少,分别采用SVM、K-means和本文方法进行实验。

SVM实验 由于一幅眼底图像大小为1440×960,HE病变区域像素样本数约占整幅眼底图像3%,为避免样本失衡,采用交叉驗证法选取e-ophtha EX数据库中像素样本作为训练集,正负比例1∶1,e-ophtha EX数据库47幅含病变图像作为测试集。实验结果如表2所示,平均灵敏性为77.92%,特异性为96.59%,训练时间为128502.15s,每幅图像平均测试时间为1.79s。

K-means实验 采用SVM相同的测试集数据。为避免随机性,以每幅图像为测试样本分别迭代30次,平均灵敏性和特异性为53.41%和53.55%,每幅图像平均耗时41.43s。

本文方法在相同的测试集数据上的检测结果为灵敏性91.13%和特异性90.00%,从表2看出本文方法的灵敏性均高于SVM和K-means方法的检测结果,特异性低于SVM方法的检测结果,原因是视盘等亮区域去除不精确造成的。每幅图像平均运行时间0.5s,远少于以上两种方法的运行时间。

图6为选取两个数据库上眼底图像采用SVM、K-means方法和本文方法的检测结果与专家标记比对。图6第三列为本文方法的检测结果,图6第四、五列为SVM、K-means方法的检测结果,图6第三、四列为SVM、K-means方法的检测结果,图6第五列为本文方法的检测结果,可以看出本文方法均能检测出HE病变区域,且本文方法检测HE病变区域比SVM、K-means方法的检测结果更接近专家标记,造成假阳性高的亮区域较少。

为了进一步验证本文方法的有效性,将本文方法与现有方法进行比较,如表3所示。文献[4]、文献[6]分别用阈值法、聚类方法,文献[1]、[11]、分别用SVM和CNN方法。根据图像水平的评价标准,图像中只要含有HE病变区域(像素)就判别为异常图像,否则为正常图像。从表3可以看出,本文方法在DIARETDB1数据库的检测结果准确度为100%,灵敏性为100%,特异性100%,在e-ophtha EX数据库上的检测结果准确度为99.03%,灵敏性为100%,特异性98.21%,与文献[1]相比,本文方法具有较高的准确度。需要说明的是,仅文献[1]给出在图像水平上的检测结果,其余文献均未提到。在病灶水平上本文方法在DIARETDB1数据库的检测结果灵敏性低于其他方法,因为e-ophtha EX数据库含有精准的专家标记图(如图6(b)第一、二行),而DIARETDB1数据库含有的专家标记图(如图6(b)第三、四行)较不精准,表3所示文献[1]、[6]中有眼科专业医生对DIARETDB1数据库进行精准标记。虽然本文方法在DIARETDB1数据库的检测结果灵敏性不高,但是从图6(e)第三、四行中可看出本文方法的检测结果比专家标记更接近真实的HE病变区域,在e-ophtha EX数据库上的检测结果显示灵敏性达到91.13%,高于其他方法,特异性比其他方法略优,特异性偏低的原因是视盘等亮区域去除不精确造成的。

3.2.5 本文方法不足

本文方法检测结果中在病灶水平上特异性较低的原因是预处理过程中不能精确去除亮区域(如视盘、邻近血管的神经纤维区域等),这些伪目标与HE病变区域有相似的形状和边缘特征,在提取局部熵特征中两者的熵值相近,因此在RPCA低秩稀疏分解过程中这些亮区域被误判为HE病变区域,造成假阳性(FP)太高,特异性不高。如图7显示,整幅图像光照不均,图中视盘位于眼球边缘且亮度较暗,邻近血管的神经纤维和视盘具有与HE病变区域相似的亮度特征,去除这些伪目标不精确导致检测结果出现假阳性偏高的现象。

4 结语

本文提出一种无监督的HE自动检测方法,运用形态学重建的背景估计方法去除血管、暗病变区域和视盘,在亮度通道上根据HE病变区域的局部性和稀疏性,结合局部熵和RPCA方法得到HE病变区域。该方法不需要专家手动标记为标准,自动检测HE病变区域,实验结果表明该方法具有较高的灵敏度和特异性,且快速有效,给眼科临床筛查和诊断带来很大的便利,具有较好的临床可行性;但本文采用RPCA方法未能较好地处理视盘去除不精确或邻近血管的神经纤维区域造成的假阳性偏高的问题,在后续的研究中可考虑加入噪声项或增加稀疏权重等优化RPCA的办法来降低假阳性。

参考文献 (References)

[1] 肖志涛,王雯,耿磊,等.基于背景估计和SVM分类器的眼底图像硬性渗出物检测方法[J].中国生物医学工程学报,2015,34(6):720-728.(XIAO Z T, WANG W, GENG L, et al. Hard exudates detection method based on background-estimation and SVM classifier[J]. Chinese Journal of Biomedical Engineering, 2015, 34(6): 720-728.)

[2] WELFER D, SCHARCANSKI J, MARINHO D R. A coarse-to-fine strategy for automatically detecting exudates in color eye fundus images[J]. Computerized Medical Imaging Graphics, 2010, 34(3): 228-235.

[3] WALTER T, KLEIN J C, MASSIN P, et al. A contribution of image processing to the diagnosis of diabetic retinopathy detection of exudates in color fundus images of the human retina[J]. IEEE Transactions on Medical Imaging, 2002, 21(10): 1236-1243.

[4] QI F C, LI G, ZHENG S B. Automatic exudate detection in color fundus images[J]. Digital TV and Wireless Multimedia Communication, 2017, 685: 155-165.

[5] SANTHI D, MANIMEGALAI D, PARVATHI S, et al. Segmentation and classification of bright lesions to diagnose diabetic retinopathy in retinal images[J]. Biomedizinische Technik (BIOMED TECH), 2016, 61(4): 443-453.

[6] 曹新容,林嘉雯,薛嵐燕,等.邻域约束模型的眼底图像硬性渗出聚类检测方法[J].计算机辅助设计与图形学学报,2018,30(11):2093-2100.(CAO X R, LIN J W, XUE L Y, et al. Clustering detection method of hard exudates in fundus image based on neighborhood constraint model[J]. Journal of Computer-Aided Design and Computer Graphics, 2018, 30(11): 2093-2100.)

[7] SOPHARAK A, UYYANONVARA B, BARMAN S, et al. Comparative analysis of automatic exudate detection algorithms [C]// WCE 2010: Proceedings of the 2010 World Congress on Engineering. London: [s.n.], 2010: 738-741.

[8] BIYANI R S, PATRE B M. A clustering approach for exudates detection in screening of diabetic retinopathy[C]// Proceedings of the 2016 International Conference on Signal and Information Processing. Washington, DC: IEEE Computer Society, 2016: 1-5.

[9] ASHA P R, KARPAGAVALLI S. Diabetic retinal exudates detection using machine learning techniques[C]// Proceedings of the 2015 International Conference on Advanced Computing and Communication System. Piscataway, NJ: IEEE, 2015: 1-5.

[10] ADEM K. Exudate detection for diabetic retinopathy with circular Hough transformation and convolutional neural networks[J]. Expert Systems with Applications, 2018, 11: 289-295.

[11] PARHAM K, PASSOS J L A, TIAGO C, et al. Exudate detection in fundus images using deeply-learnable features [J]. Computers in Biology and Medicine, 2018, 104: 62-69.

[12] AMIN J, SHARIF M, YASMIN M, et al. A method for the detection and classification of diabetic retinopathy using structural predictors of bright lesions [J]. Journal of Computational Science, 2017, 19: 153-164.

[13] WRIGHT J, GANESH A, RAO S, et al. Robust principal component analysis: exact recovery of corrupted low-rank matrices via convex optimization [EB/OL]. [2018-12-10]. https://arxiv.org/pdf/0905.0233v1.pdf.

[14] XIAO L, FANG B, LIU L H, et al. Extracting sparse error of robust PCA for face recognition in the presence of varying illumination and occlusion[J]. Pattern Recognition, 2014, 47(2): 495-508.

[15] YAN J C, ZHU M Y, LIU H X, et al. Visual saliency detection via sparsity pursuit [J]. IEEE Signal Processing Letters, 2010, 17(8): 739-742.

[16] 倉园园,孙玉宝,刘青山.基于分层鲁棒主成分分析的运动目标检测[J].计算机辅助设计与图形学学报,2014,23(4):537-544.(CANG Y Y, SUN Y B, LIU Q S. Moving object detection based on hierarchical robust principal component analysis [J]. Journal of Computer-Aided Design and Computer Graphics, 2014, 23(4): 537-544.)

[17] CANDS E J, LI X, MA Y, et al. Robust principal component analysis? [J]. Journal of the ACM, 2011, 58(3): Article No. 11.

[18] AZIZI S, SAMAVI S, MOHREKESH M, et al. Cascaded transform space watermarking based on analysis of local entropy variation[C]// Proceedings of the 2013 International Conference on Multimedia and Expo Workshops. Piscataway, NJ: IEEE, 2013: 1-6.

[19] 付晓薇,代芸,陈黎,等.基于局部熵的量子衍生医学超声图像去斑[J].电子与信息学报,2015,37(3):560-566.(FU X W, DAI Y, CHEN L, et al. Quantum-inspired despeckling of medical ultrasound images based on local entropy[J]. Journal of Electronics and Information Technology, 2015, 37(3): 560-566.)

[20] MASSIN P, CHABOUIS A, ERGINAY A, et al. OPHDIAT: A telemedical network screening system for diabetic retinopathy in the le-de-France [J]. Diabetes and Metabolism, 2008, 34(3): 227-234.

[21] DECENCIERE E, CAZUGUEL G, ZHANG X W, et al. TeleOphta: machine learning and image processing methods for teleophthalmology[J]. Innovation and Research in BioMedical Engineering, 2013, 34(2): 196-203.

[22] ZHANG X W, THIBAULT G, DECENCIRE E, et al. Exudate detection in color retinal images for mass screening of diabetic retinopathy[J]. Medical Image Analysis, 2014, 18(7): 1026-1043.