基于多尺度图像增强结合卷积神经网络的纸病识别分类
2018-09-10李光明薛丁华加小红李云彤雷涛
李光明 薛丁华 加小红 李云彤 雷涛
摘要:针对造纸工业中传统纸病识别分类依赖于特征描述子和分类器的选择问题,提出一种多尺度图像增强结合卷积神经网络的纸病识别分类方法。该方法利用多尺度形态学梯度增强纸病图像的边缘轮廓信息,突出缺陷梯度特征,然后利用卷积神经网络(CNN)学习纸病图像的特征并分类识别,从而实现纸病的准确识别分类。实验结果表明,该方法对纸病识别分类的结果明显优于HOG+SVM、LBP+SVM以及传统CNN方法,在Caltech101、KTH-TIPS以及本课题的数据集上的分类正确识别率分别达到98.44%、99.23%和99.64%。与现有纸病识别分类方法相比,本课题方法不需针对各种纸病进行缺陷特征提取和特征描述,能快速实现纸病的准确识别分类。
关键词:图像增强;卷积神经网络;多尺度形态学梯度;图像分类
中图分类号:TS77;TP302.1
文献标识码:A
DOI:10.11980/j.issn.0254-508X.2018.08.009
特征提取是模式识别的关键步骤,在图像分析和模式识别中有着重要应用。传统的图像分类方法首先需要定义特征描述子,再根据定义好的特征描述子进行特征提取并分类[1-2]。针对造纸行业中的纸病分类问题,由于实际纸张图像容易受光照、环境等因素影响,使得纸病检测研究问题、纸病特征提取及纸病识别分类成为造纸行业中的热点[3]。目前,学者们已经提出了多种纸病识别分类算法。袁浩等人[4]通过对纸病图像进行特征选择,提出将支持向量机应用于纸病识别分类,但纸病图像灰度表现单一,且受光照因素影响存在亮度上的变化,导致分类效果不理想。因此,胡慕伊等人[5]根据不同纸张缺陷图像的灰度特征,利用动态双阈值分割纸张缺陷区域,提取缺陷特征并进行识别分类,然而阈值分割需要对不同的纸张缺陷设置不同的阈值,导致参数设置困难。为了降低参数设置复杂度,张刚强等人[6]利用Hough变换检测直线特征的方法对纸张缺陷进行识别分类,该方法在缺陷形状为线型时识别效果较好,但不适用于大多数非线型形状的纸张缺陷识别分类。为了提高纸病分类算法的鲁棒性,杨雁南等人[7]提出利用模糊融合器对纸病的多种特征值进行特征层融合,利用径向基神经网络对纸病图像进行识别分类,扩大了纸病辨识的范围,但提取的特征单一且为浅层特征,从而导致分类精度较低。为此,罗磊等人[8]利用LBP(Locial Binary Pattern,局部二进制模式)提取纸张缺陷特征并进行识别分类,但由于LBP方法对纸张表面图像纹理清晰度要求较高,需要复杂的预处理算法。
近来,吴一全等人[9]提出一种基于Krawtchouk矩不变量和小波支持向量机的纸病识别分类方法,通过计算纸病图像的Krawtchouk 矩不变量来构造纸病图像的特征向量,根据训练样本的特征向量构造支持向量机,对紙病进行识别分类,然而该方法的计算复杂性较高。为了进一步提高缺陷辨识精度,周强等人[10]提出利用二维小波变换去噪、奇异值分解方法提取纸病特征并进行识别分类,有效提高了识别分类精度。
针对传统图像分类方法依赖于特征描述子的问题,Hinton等人[11-12]提出的深度学习能够分层学习图像特征,有效避免传统图像分类方法依赖于人工特征描述子的问题,在图像处理及计算机视觉等众多领域中得到了广泛应用。作为深度学习的代表性模型,卷积神经网络(CNN)能自动学习图像特征,对复杂图像的形状特征、纹理特征、颜色特征以及空间关系特征进行深层特征提取[13]并分类,通常可获得比传统特征提取方法更好的分类效果。2012年,Alex K等人[14]采用深度卷积网络对ImageNet分类,错误率15.3%。2014年,Szegedy C等人[15]提出了一个包含22层的GoogleNet对ImageNet分类,将错误率降至6.67%。2016年,He K等人[16]提出的152层残差网络(ResNet) 将错误率进一步降低到3.57%。
鉴于CNN在图像特征学习及分类方面的巨大优势[12-17],本课题提出了一种多尺度图像增强结合卷积神经网络的纸病识别分类方法。形态学中小尺度结构元素有利于梯度细节检测,大尺度结构元素有利于抑制噪声;多尺度形态学梯度检测能兼顾小尺度结构元素和大尺度结构元素的优点,且形态学对边缘方向性依赖小,使得图像能保持较强的对比度。本课题利用多尺度梯度增强纸病图像中缺陷边缘轮廓信息,同时利用CNN能够自动学习图像特征的优势,对纸病图像进行特征提取并识别分类,主要解决现有的纸病识别分类方法依赖于特征描述子和分类器选择、特征计算复杂等问题。实验结果表明,本课题提出的方法对不同纸病数据集获得了更高的分类精度,能有效降低纸病分类识别的错误率。
本课题主要目的:①将CNN应用在纸病识别分类中,解决传统方法存在纸病特征提取困难、分类精度低的问题;②将多尺度形态学梯度应用于纸病图像增强,解决传统CNN方法直接应用于纸病识别分类存在深层特征学习困难导致纸病分类精度较低的问题;③与传统方法相比,在保证计算效率的前提下,给出的方法有效提高了纸病识别率。进一步证明深度CNN对于分类准确性是有利的,同时表明CNN在缺陷图像多类别目标的识别分类中具有较好的实用性,克服了传统方法的不足[17]。
1传统纸病识别分类方法
传统的识别分类方法是基于对采集到的纸病图像进行定量化特征提取,用分类器直接对提取特征进行分类,得到分类结果,进而对纸病的分类信息进行统计分析[3],针对造成具体纸病的原因,采取改进造纸生产过程中不合理或操作管理不当等措施,提高纸张质量。
图1为传统纸病识别分类流程。从图1可知,预先定义特征描述子,进行纸张缺陷特征提取和特征描述计算,用以训练分类器模型,之后基于定义特征和分类器模型,对测试图像进行特征提取并识别分类。首先,传统的识别分类方法中的特征描述子包含大量的先验知识,其进行特征提取的主要问题是识别的准确性很大程度上取决于该特征描述子是否具有描述某些特征的能力[21-23],但对多数图像而言,固定的特征描述子难以提取到图像的完整信息;其次,传统识别分类方法的特征计算复杂,提取到的特征单一且为图像的底层特征。因此,为了获取更好的图像特征,需要提取纸病图像的深层语义特征,由此提取到的特征更有利于纸病识别分类。
2本课题方法
针对传统的纸病识别分类方法依赖于传统特征描述子、特征计算复杂等问题,本课题提出一种多尺度图像增强结合CNN用于纸病识别分类的方法。对特征提取步骤而言,传统CNN可以提取到图像的深层特征信息,深层的网络能提取到更全面的高维特征。通过对图像的形状特征、纹理特征、颜色特征以及空间关系特征的深层特征信息进行特征提取并识别分类,能获得比传统分类方法更好的识别效果。
对纸病而言,不同的纸病表现在形状特征、灰度特征以及纸病边缘特征信息的不同,比如黑斑、孔洞、毯痕、褶皱。而实际中纸病图像纹理简单,背景单一,大多数纸病缺陷边缘轮廓清晰度不高,同时都属于少量缺陷。直接用CNN对其进行特征提取,提取到的缺陷特征信息占整幅图像的特征信息比例较小、特征有效率较低,导致识别效果不理想。因此,结合具体纸病进行分析后,本课题利用多尺度图像增强方法,突出纸病轮廓梯度特征,进而增强纸病轮廓清晰度,之后再利用CNN进行特征提取,有利于提取到纸病信息,更有利于纸病的识别分类。
本课题方法的总体框图如图2所示。从图2可知,首先计算多尺度形态学梯度,对输入图像进行不同尺度形态学梯度运算,得到多个尺度下的形态学梯度图像;然后,对不同尺度下的梯度图像加权融合得到最终的多尺度形态学梯度图像,将多尺度形态学梯度图像与纸张缺陷图像进行融合实现图像增强,输入至CNN训练模型;最后,将训练集输入到CNN模型,进行纸病图像的特征提取并准确识别分类。
2.1纸病梯度图像增强
由于纸病图像纹理简单,背景单一,大多数纸病缺陷边缘轮廓清晰度不高,为了突出纸病轮廓梯度特征,提高纸病轮廓清晰度,有利于CNN提取到有效特征,所以对纸病图像进行梯度增强。
梯度图像在沿图像目标区域的边缘处有较高的值,在背景区域的梯度值较低,能够很好地突出灰度值变化比较大的边界区域。因此将梯度图像与纸病图像进行融合实现梯度图像增强,突出梯度特征的同时保留了原始图片特征信息、纸病的部分背景信息和缺陷周边特征信息,之后输入CNN进行特征提取并识别分类。
图3为三种算子对应的纸病的各梯度增强图像。从图3可以看出,图像的边缘轮廓清晰度相对原图有所提升,但各算子对缺陷边缘方向性依赖比较大。Canny算子和Prewitt算子比Sobel算子的抑噪能力强,容易平滑掉一些边缘信息,且所用算子为固定尺度的结构元素,不适合存在弱边界的纸病图像进行图像梯度增强。
2.2纸病多尺度图像增强
Canny算子和Prewitt算子抑制噪声能力强,但增强效果有限。Sobel算子增强效果明显,但对噪声比较敏感。针对传统梯度增强方法存在的问题,由于形态学梯度对边缘方向性依賴小,且能保持较强的对比度[26-28],所以本课题拟采用形态学梯度函数进行图像增强。
形态学梯度根据膨胀或腐蚀与原始图像之差作图,来增强结构元素领域中像素的强度,突出高亮区域的外围。
常用膨胀后的图像减去腐蚀后的图像作为梯度图像。一幅图像的单尺度形态学梯度表示为grad,见式(1)。
式中,⊕和Θ分别表示膨胀和腐蚀的运算符号;f(x,y)为原始图像,se(x,y)为结构元素,算子性能取决于结构元素se的大小和形状。小尺度的结构元素抑噪能力弱,但有利于检测到好的梯度边缘细节信息,大尺度的结构元素有利于抑制噪声,但所检测到的梯度边缘较粗,结构元素过大或者过小都容易产生较差结果,进而影响后续工作。
为了利用小尺度结构元素和大尺度结构元素各自的优点,使用不同尺度的结构元素对原始图像进行形态学梯度运算,并重构各梯度图像,通过对不同尺度形态学梯度图像加权融合取均值,得到最终的多尺度形态学梯度图像。一幅图像的多尺度形态学梯度图像表示为Multi_Grad,见式(2)。
相同种类的纸张缺陷图像的周边信息特征具有一致性,为了增强纸病的边缘轮廓信息和梯度特征信息,同时保留原始图像的背景信息和纸病周边特征信息,因此提出将多尺度形态学特征图像与原始图像加权融合实现图像增强[22],增强图像梯度特征和边缘特征,之后将增强图像输入至CNN进行特征提取并识别分类。结合式(2) 得最终输入至网络的图像为Multi_Grad_Input[f(x,y)],见式(3)。
利用多尺度形态学得到多尺度形态学梯度图像(见图4),其中MSMG为多尺度形态学梯度图像。
对比图4与图3的梯度增强图像可以发现,多尺度形态学方法处理后的缺陷轮廓信息有所提高,对比度也随之增强,周边信息得到细化,作为CNN的输入进行缺陷特征提取,更能代表纸病图像的特征信息。首先,形态学梯度在兼有梯度图像优点下,还具有对边缘方向性依赖小,达到增强梯度特征、边缘轮廓特征的目的的优势。其次,形态学梯度与各种空间梯度算子有区别,当使用对称结构元素时,其对边缘方向依赖性与空间增强技术中梯度算子的边缘方向依赖性更小。由于圆盘状结构元素具有各个方向同性的性质,且适合目标有弧度的图像的梯度信息提取,结合纸病图像的缺陷形状,因此本课题选择采用圆形结构元。
2.3CNN提取特征并识别分类
根据图2,对于增强后的纸张图像采用CNN进行纸病特征学习并识别分类。由于增强后的纸病图像对比度明显,能突出纸病缺陷的梯度特征和边缘信息特征。提取到的特征有效率较高,因此更有利于纸病识别分类。
CNN是一种处理二维输入数据的前馈神经网络,与传统神经网络一样使用反向传播算法训练修正参数,区别在于网络的结构,CNN包含了若干个由卷积层和池化层构成的特征提取器[24]。本课题用AlexNet网络模型进行特征提取。图5是简单的CNN图像分类框架。Ci表示第i卷积层,Sj表示第j池化层。
2.3.1卷积层
卷积层是CNN的特征提取层,卷积层的每一个特征图是前一层的特征图与卷积核进行滤波卷积和,增加偏置项的结果,通过卷积操作提取图像的局部特征[24-25],第l层特征图的计算可表示为式(4)。
2.3.2池化层
池化层为下采样特征映射层,通过降低特征的分辨率,来防止过拟合。同时减少网络参数和保持图像平移、伸缩和旋转不变形,能计算图像局部特征并对图像不同位置的特征进行聚合统计[24-25],得到其特征表达。采用最大池化方法,第l+1层的特征图可表示如式(5)所示。
2.3.3基于CNN的纸病特征提取
AlexNet深度网络模型如图6所示,其中前5层(C1~C5)是特征提取层,Ci表示第i卷积层,用以在保持图像平移、伸缩和旋转不变形的情况下进行图像特征提取。后面3层为全连接层,Fj表示第j全连接层,实现对纸病图像的特征学习、特征提取并识别分类。
基于AlexNet深度网络模型,对纸病进行特征学习,将孔洞纸病图像和其增强图像输入至CNN 中进行特征提取,各卷积层结果如图7所示。从图7中的图像对比可以看出,本课题方法使孔洞纸病整体对比度提高,且轮廓边缘清晰。
2.4本課题算法描述
本课题基于多尺度图像增强结合CNN的纸病识别分类算法,结合小尺度结构元和大尺度结构元的优点,利用数学形态学方法计算纸病图像的形态学梯度图像,对不同尺度下的形态学梯度图像加权融合取均值,得最终的多尺度形态学梯度图像。输入至CNN中进行特征提取并识别分类。
基于多尺度图像增强结合CNN的纸病识别分类算法具体步骤如下:
(1)准备纸病图像数据,并随机划分训练集和测试集。
(2)初始化,给定程序的运行参数,sei为第 i尺度对应的结构元,此处取半径大小为1、3、5、7的圆形结构元素,并输入纸病训练集图像。
(3)利用形态学方法对输入图像进行不同尺度形态学梯度运算,得到多个尺度下的形态学梯度图像;G(i)表示尺度i的形态学梯度图像,见式(6)。
(4)对不同尺度下的形态学梯度图像加权融合,得最终的多尺度形态学梯度图像MG;n表示尺度数目,见式(7)。
(5)将多尺度形态学梯度图像与纸张缺陷图像进行融合实现增强图像。
(6)将训练集对应的增强图像输入至CNN进行特征学习。
(7)将测试集对应的增强图像,输入至训练好的模型上进行纸病特征提取并识别分类,得训练集数据对应的预测标签。
(8)训练集的预测标签与实际标签对比,计算纸病识别分类正确率。
本课题算法流程图如图8所示。
3实验与分析
实验研究了通过纸病识别分类来验证本课题算法的可行性。实验选择共400张227*227*3纸病图像,各类纸病100张,对数据集按0.8比例随机划分训练集和测试集。对比纸病预测类别标签与实际类别标签,对实现结果进行评价,实验在CPU: Intel(TM)i7-6700U处理器,16G内存,NVIDIA Quadro K620显卡的硬件环境和Matlab2017a的软件环境下运行。
本课题方法利用多尺度形态学实现纸病图像增强,在增强纸病图像的边缘轮廓信息和梯度特征的同时,保留了原图的背景信息和缺陷目标周边特征信息,增强了图像梯度特征和缺陷边缘轮廓特征,由此提取到的特征更有利于纸病识别分类,进而实现CNN的特征提取并识别分类,能提高识别分类精度。
3.1纸张缺陷数据集测试结果
为了更清晰地观察和分析各类图像正确分类的个数及与某个类别容易混淆造成错分的类别,实验利用混淆矩阵对正确分类的图像个数进行表征,其中混淆矩阵的X轴和Y轴均表示纸病类别,第i行第j列的值代表第i类纸病被分为第j类的个数比例,混淆矩阵对角线上的元素值表示对应纸病正确识别分类的比例,对测试集纸病图像进行分类得到正确识别率。结果如表1所示。
从表1实验结果可以看出,CNN耗时明显优于HOG+SVM和LBP+SVM,本课题算法在纸病识别分类中正确识别率达到99.64%,比传统CNN方法提高了0.89个百分点,明显优于其他算子的梯度增强方法和传统CNN方法。实现了在保证不影响耗时的前提下,对纸病进行准确快速识别分类,具有分类精度高、耗时少的优势,因此在纸病识别分类应用方面具有一定的可行性。
3.2Caltech101、KTH-TIPS数据集测试结果
Caltech101是一个图像物体识别数据集,包含101类物体的图像,每个类别中最小包含 31 张图像。随机划分训练集2505张图像,测试集626张图像;KTH-TIPS是一个在不同的光照、角度和尺度下拍摄的不同材质表面纹理图片,总共10类纹理图像,每类81张图像,随机划分训练集648张图像,测试集162。两种数据集多用于图像识别分类,在各数据集上用以上方法进行对比实验,实验结果见表2。从表2可以看出,与其他算子的梯度增强方法和传统CNN方法相比,本课题的多尺度图像增强结合CNN分类方法有较高的分类精度,对两种数据集的分类正确识别率分别达到了98.44%和99.23%。同时,耗时少于传统方法。证明了本课题方法的优越性和实用性。
4结论
本课题将卷积神经网络(CNN)应用在纸病识别分类中,能快速实现纸病图像的特征提取并准确识别分类;同时提出一种多尺度图像增强结合CNN的纸病识别分类方法,解决传统纸病识别分类依赖于传统特征描述子和分类器选择、特征计算复杂等问题。实验结果表明,在保证计算效率的前提下,本课题提出的方法在纸病数据集上的分类正确识别率达到了99.64%,比传统CNN方法提高了0.89个百分点,降低了错误率。且在Caltech101、KTH-TIPS数据集上的分类正确识别率分别达到98.44%和99.23%,进一步验证了方法的可行性和有效性。不足之处是所分类识别对象仅为4种纸张缺陷,下一步的研究方向可以改进CNN的结构以提高其泛化能力,应用到多种纸病中。
参考文献
[1]Romero A, Gatta C, Camps-Valls G. Unsupervised deep feature extraction for remote sensing image classification[J]. IEEE Transactions on Geoscience and Remote Sensing, 2016, 54(3): 1349.
[2]Chen Y, Jiang H, Li C, et al. Deep feature extraction and classification of hyperspectral images based on convolutional neural networks[J]. IEEE Transactions on Geoscience and Remote Sensing, 2016, 54(10): 6232.
[3]ZHOU Qiang, CHEN Ying, SHEN Tian-yu, et al. Development of Paper Disease Detection System Based on Machine Vision[J]. China Pulp & Paper, 2016, 35(5): 72.
周强, 陈颖, 沈天宇, 等. 基于机器视觉的纸病检测系统发展综述[J]. 中国造纸, 2016, 5: 72.
[4]Yuan H, Fu Z L, et al. Paper defect image classification and recognition based on support vector machine[J]. Journal Of Computer Applications, 2008, 28(2): 330.
袁浩, 付忠良, 等. 基于支持向量机的纸张缺陷图像分类识别[J]. 计算机应用, 2008, 28(2): 330.
[5]YIN Yan-ping, XIONG Zhi-xin, HU Mu-yi. Paper defect image recognition algorithm based on threshold segmentation and fractal features[J]. Transactions of China Pulp and Paper, 2011, 26(4): 41.
殷燕屏, 熊智新, 胡慕伊. 基于阈值分割及分形特征的纸病图像识别算法研究[J]. 中国造纸学报, 2011, 26(4): 41.
[6]ZHANG Gang-qiang, ZHOU Qiang. Application of improved Hough transform in paper defect detection system[J]. Transactions of China Pulp and Paper, 2011, 26(4): 38.
张刚强, 周强. 改进Hough变换在纸病检测系统中的应用[J]. 中国造纸学报, 2011, 26(4): 38.
[7] Zhou Q, Yang Y N, Liu Y, et al. Paper recognition based on RBFNN fuzzy fusion[J]. Acta Photonica Sinica, 2013, 42(8): 1002.
周强, 杨雁南, 刘勇, 等. 基于RBFNN模糊融合的纸病在线辨识[J]. 光子学报, 2013, 42(8): 1002.
[8] Luo L, Zhang E H. Research and implementation of paper surface defect detection system based on image analysis[J]. Journal of Xian University of Technology, 2014, 30(2): 187.
羅磊, 张二虎. 基于图像分析的纸张表面缺陷检测系统的研究与实现[J]. 西安理工大学学报, 2014, 30(2): 187.
[9] Zhu L, Wu Y Q. Research on detection methods of pulp fibers and paper defects based on computer vision[D]. Nanjing: Nanjing University of Aeronautics and Astronautics, 2015.
朱丽, 吴一全. 基于计算机视觉的纸浆纤维和纸张缺陷检测方法研究[D]. 南京: 南京航空航天大学, 2015.
[10] ZHOU Qiang, QI Lu. Paper defect identification based on SVD and SVM for complex background noise image[J]. Transactions of China Pulp and Paper, 2016, 31(2): 49.
周强, 齐璐. 基于SVD和SVM的复杂背景噪声图像的纸病辨识[J]. 中国造纸学报, 2016, 31(2): 49.
[11] Hinton G, Osindero S, Teh Y-W. A fast learning Algorithm for Deep Belief Nets[J]. Nature, 2006, 18(7), 1527.
[12] Le Cun Y, Bengio Y, Hinton G. Deep learning[J]. Nature, 2015, 521(7553): 436.
[13]Schmidhuber J. Deep Learning in neural networks: An overview[J]. Neural Networks, 2015, 61: 85.
[14]Alex K, Ilya S, Geoff H. Imagenet classification with deep convolutional neural networks[J]. Advances in Neural Information Processing Systems, 2012, 25(2): 1106.
[15]Szegedy C, Liu W, Jia Y, et al. Going deeper with convolutions[C]// IEEE Conference on Computer Vision and Pattern Recognition. IEEE Computer Society, Boston, United States, 2015: 1.
[16]He K, Zhang X, Ren S, et al. Deep Residual Learning for Image Recognition[C]// IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, NV, United States, 2016: 770.
[17] Ren S, He K, Girshick R, et al. Object detection networks on convolutional feature maps[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(7): 1476.
[18] Tang B, Kong J Y, Wu S Q. Review of surface defection based on machine vision[J]. Journal of Image and Graphics, 2017, 22(12): 1640.
汤勃, 孔建益, 伍世虔. 机器视觉表面缺陷检测综述[J]. 中国图象图形学报, 2017, 22(12): 1640.
[19] Bian Z G. Development of machine vision technology[J]. China Instrumentation, 2015(6): 40.
卞正岗. 机器视觉技术的发展[J]. 中国仪器仪表, 2015(6): 40.
[20] Xu K, Wang L, Wang J Y. Surface defect recognition of hot-rolled steel plates based on Tetrolet transform[J]. Journal of Mechanical Engineering, 2016, 52(4): 13.
徐科, 王磊, 王璟瑜. 基于Tetrolet变换的热轧钢板表面缺陷识别方法[J]. 机械工程学报, 2016, 52(4): 13.
[21]Koch C, Georgieva K, Kasireddy V, et al. A review on computer vision based defect detection and condition assessment of concrete and asphalt civil infrastructure[J]. Advanced Engineering Informatics, 2015, 29(2): 196.
[22]Cha Y-J, You K, Choi W. Vision-based detection of loosened bolts using the Hough transform and support vector machines[J]. Automation in Construction, 2016, 71(2): 181.
[23] Zhou Y C, Wei Y. Learning hierarchical spectral-spatial features for hyperspectral image classification[J]. IEEE Transactions on Cybernetics, 2016, 46(2): 1667.
[24] Cha Y-J, Choi W, Büyükztürk O. Deep learning-based crack damage detection using convolutional neural networks[J]. IEEE Transactions on Geoscience and Remote Sensing, 2017, 32: 361.
[25] Chougrad H, Zouaki H, Alheyane O. Deep Convolutional Neural Networks for breast cancer screening[J]. Computer Methods and Programs in Biomedicine, 2018, 157: 19.
[26] Lei T, Jia X H, Zhang Y N, et al. Significantly fast and robust fuzzy c-means clustering algorithms based on morphological reconstruction and membership filtering[J]. IEEE Transactions on Fuzzy Systems.[DOI: 10. 1109/TFUZZ. 2018. 2796074].
[27] Lei T, Zhang Y N, Wang Y, et al. A conditionally invariant mathematical morphological framework for color images[J]. Information Sciences, 2017, 387(5): 34.
[28] Lei T, Fan Y Y, Wang Y. Color edge detection based on the fusion of hue and Principal component analysis[J]. IET Image Processing, 2014, 8(1): 44.
(責任编辑:常青)