APP下载

基于U-net的海马体分割算法应用

2020-04-24史春晖朱习军

计算机工程与设计 2020年4期
关键词:海马预处理卷积

史春晖,朱习军

(青岛科技大学 信息科学技术学院,山东 青岛 266061)

0 引 言

阿尔兹海默症(Alzheimer disease,AD)[1]的发病机制目前尚不明确,在AD的早期阶段(轻度认知障碍),虽然患者还未表现出AD的特征,但其脑部内侧颞叶已经发生萎缩,而且极有可能向AD转化。其中,海马体萎缩的最为严重[2],同时海马体存在形状不规则、体积较小、不易分割等特点,因此,对海马体的分割仍然存在很大的挑战。核磁共振成像(magnetic resonance imaging,MRI)设备具有成像分辨率高,不会产生电离辐射,对比度成像等其它设备所不具备的优势,故当前海马体的分割多依赖于MRI图像数据。

目前,海马体的分割主要是医生通过手动实现,且分割过程耗时大,主要原因是医生要对病人海马体区域花费大量的时间进行勾画,而且勾画结果易受医生主观因素的影响。针对手动分割存在的问题,相关工作者提出半自动化或自动化的海马体图像分割算法,而且随着深度学习的发展,深度卷积神经网络及其各种模型在医学图像处理领域中被广泛应用并且取得了较好的效果[3-5]。但是这些算法都存在着相同的问题,神经网络训练时间相对较长,需要的样本数据量大,图像在输入过程中通过滑动窗口的方式对像素点进行检测,使得训练速度很慢,而且容易出现冗余的现象,其次窗口的大小会对池化操作及其结果造成影响。针对这些问题,本文基于深度学习理论,运用改进的U-net模型,实现对海马体的分割,从而达到辅助医生对阿尔兹海默症的诊断和诊疗。

1 基于U-net模型的图像分割设计

本文采用MRI图像作为海马体分割的数据源,算法的整体流程主要包括图像预处理,数据扩充以及基于U-net模型的图像分割3个主要步骤,算法的基本流程如图1所示。

图1 算法流程

1.1 图像预处理

图像预处理可以尽量减少抽取图像特征时因图像的亮度、对比度等无关因素的干扰,对算法的精度也有一定程度的提高。

1.1.1 限制性对比度自适应直方图均衡算法

传统的直方图算法在对图像的灰度进行分布的过程中,对有用信息以及噪声进行了同样的操作,这使得图像中的噪声得到放大。针对噪声被同步放大的问题,通过限制性对比度自适应直方图均衡算法(contrast limited adaptive histogram equalization,CLAHE)可以很好地解决,CLAHE最显著的特点便是对图像对比度增强的幅度予以限制,

使得图像对比度更加自然。CLAHE算法通过设定的阈值对直方图进行裁剪,去掉了过高的部分,然后将其均匀分布到直方图中,从而生成新的直方图。算法原理如图2所示,同时在各个图像块间运用双线性插值方式,去除分块处理导致的块边缘过渡不平衡的问题,使得运算效率得到改善。

图2 CLAHE直方图裁剪

1.1.2 曲率驱动的图像去噪

常用的图像去噪方法在去噪过程中高频成分被没有区分的减弱,所以图像噪声在被去除的同时边缘也变得模糊。实际图像中物体包括边缘在内的等照度线是光滑的曲线,曲率绝对值小,当有噪声存在时,局部灰度值发生改变,等照度线随即产生不规则的震荡,形成局部曲率很大的等照度线。根据这一原理,对相应位置的像素点进行调整,把不规则的等照度线变成平滑的曲线,实现图像去噪。

1.1.3 预处理实现

本文通过使用CLAHE算法对图像进行预处理,以达到增强图像对比度的目的,同时运用曲率驱动算法去除图像噪声,从而得到预处理后的图像数据。由于实验采用的脑部MRI图像样本,海马体位置比较固定,因此基于 U-net 模型输入数据的特点,从每个MRI图像中提取一个128×128的图像块,对其进行预处理。在后面的过程中,该128×128大小的图片将作为数据样本被送到网络模型中进行训练和测试。预处理后的图像,如图3所示。

图3 预处理后的图像

1.2 数据增强

原始数据的数量远不足以训练一个深层次网络,因此在本文中用到了Keras自带的图像数据增强技术,对原始数据做平移、旋转、扭曲等操作进行数据扩充以增加数据样本量。但是通过这些变换得到的图像相对于原始图像在形状上并没有太大的差异。而考虑到真实的脑部MRI图像中,根据海马体的患病程度而导致的图像形状大小差异较大,本文处理方法是在原有点阵上,叠加正负向随机距离形成“插值位置”矩阵,然后计算每个插值位置上的灰度,形成新的点阵,实现图像内部的扭曲变形。从而实现原始MRI图像数据样本数据量的增加。扩充后的数据样本如图4所示。

图4 数据增强

2 改进的U-net模型

全卷积神经网络(FCN)是一种端到端的语义分割方法,实现了逐像素点预测。其将传统CNN中的全连接层转化成卷积层,可以接受任意尺寸的输入图像。对池化后缩小的图片,通过上采样可得到和原图等大的分割图。全卷积之后的结果直接上采样会很粗糙,深层语义信息丰富但图像失真,浅层图像特征明显但语义不显著,U-net模型通过采用跳跃连接可以改善上采样粗糙的情况。

2.1 批规范化[6](Batch Normalization)

深度神经网络包含很多层,训练过程中会出现学习速度慢、学习效果过分依赖于初始数据分布以及梯度消失问题。基于这些问题,Ioffe等提出了批规范化方法,训练时采用初始很大的学习率加快网络的衰减速度,少用或不用Dropout和正则化操作,同时实现对过拟合的控制,其公式如下

(1)

(2)

(3)

2.2 残差模块

如图5所示。每一个残差块中包含着两个卷积层及一条绕过它们的残差连接,同时残差块的输入被直接添加到输出,使得每一层学到的不仅是参数本身,还包括残差,后面的层学到的是对前面层的补充。这种方法极大地增加了网络性能,从而解决网络深度变深以后性能退化的问题。

图5 残差模块

2.3 Adam优化算法

参数的学习率由Adam(adaptive moment estimation)利用梯度的一阶矩估计和二阶矩估计动态调整。Adam的每一次迭代,学习率都被限制在一个大致的范围,具有参数比较平稳的优点,同时计算高效,可以解决学习率消失、收敛过慢、损失函数波动较大等其它优化算法中存在的问题。公式如下

mt=μ×mt-1+(1-μ)×gt

(4)

(5)

(6)

(7)

(8)

2.4 U-net模型的改进

图6为本文中使用的U-net网络结构。该网络包含一个收缩路径(contracting path)和一个对称的扩张路径(expanding path)[7]形成一个U型。其中,收缩路径用于获取上下文信息,扩张路径用以精确定位。收缩路径是典型的卷积网络结构,结构含有重复的步骤,每次重复中都有两个3×3卷积层(无padding),且每个卷积层后有一个ReLu非线性激活函数及批规范化(BN)层来提高网络性能,以及一个步长为2的2×2最大池化层进行下采样,经下采样特征通道数量加倍。扩张路径也使用了一种相同的排列模式,对数据进行上采样处理,通过反卷积,特征通道数量被减半,特征图大小加倍,然后拼接反卷积的结果与收缩路径中对应步骤的特征图,拼接后的特征图再进行两次3×3的卷积。最后一层的卷积核大小为1×1,并利用sigmoid函数对输出进行处理,将64通道的特征图最终转化为特定类别数量的结果。

图6 U-net网络结构

传统的卷积层或全连接层在信息传递过程中,往往存在信息丢失、损耗等问题,而且随着网络不断加深,梯度消失和梯度爆炸的问题也会随之出现。因此为使模型更有效的训练,区别于原始U-net,改进的U-net在卷积块中加入残差,在该模块中输入信息被直接传到输出,保证了信息的完整性,整个网络仅需要学习输入、输出差别的部分,这在一定程度上简化了学习目标和难度。网络模型中的损失函数使用Adam算法进行优化,实现梯度参数的更新,该优化算法较传统的SGD、动量等具有计算高效,方便实现的优点,最终使得结果较快的趋向于收敛。

3 实验结果及分析

本实验所用的数据样本来源于阿尔兹海默症神经影像学计划 (Alzheimer’s disease neuroim aging initiative,ADNI)数据库[9]。ADNI于2003年创建,目前已有59个数据采集点。ADNI的主要目的是,尽可能早地检测出患AD的人群,在早期阶段研究发现最有效的诊断方法,辅助医生确定新的治疗方案并观察成效,从而减轻临床试验的时间和成本。

本文采用Keras框架搭建基于U-net的海马体分割模型。为了验证算法的分割精度,将数据集分为训练集和测试集两部分,训练集用于对U-net模型进行训练,测试集用来验证算法模型的精确度。原始训练样本为ADNI数据库中的129组人脑核磁共振影像数据。经过弹性形变、翻转、旋转等图像扩充操作后,新的数据集包含5万张图像数据,其中2/3被用以网络模型的训练,剩余的1/3图像用于对算法分割精度的验证。

3.1 评价指标

为定量评估算法的分割性能,本文采用Dice系数、精确率(precision)和召回率(recall)分别对分割结果进行评估。

(1)Dice系数是一种集合相似度函数,可用来评判实际分割样本与理论分割结果的相似度,两个样本相似度越好,相应的损失就越小,精度越高

(9)

其中,X表示手动分割结果,Y表示本文算法分割结果,Dice系数的取值范围为0-1,Dice系数越大表示分割结果越准确。

(2)精确率,召回率,在图像分割领域是两个比较基本的指标,因此将其引入本文中

(10)

(11)

其中,TP表示正确分割的部分,FP表示误分割部分,FN表示将正确区域误分为错误的部分。上述两个指标取值越高表示分割结果越好。

3.2 实验结果

图7给出了本文算法在训练样本集和测试样本集上海马体分割的对比结果。由图7中可以看出训练样本集和测试样本集随着数据样本的增大分割结果趋向于稳定,均维持在80%以上。

图7 样本分割结果

图8为本文算法在MRI脑图像上的分割结果,第一列为原始的输入图像,第二列为医生手动分割的海马体图像,第三列为本文算法得到的分割结果。从图中可以看出,采用本文算法对海马体分割得到的结果与手工标注的结果基本接近。

图8 分割结果示例

为验证由数据增强后样本扩充对实验结果的影响,本文分别用两组数据对算法进行实验,其中一组图像仅包含变形后的数据及其扩充样本集,另一组图像包含原始数据及其变形后的总的数据样本集。实验结果数据见表1。

表1 不同样本集下分割结果对比

从表1可以看出,仅采用变形后的样本集与全部数据集的实验结果基本接近,这表明了采用数据增强的合理性,同时也验证在本文中原始数据集在较小的样本的情况下,采用包括图像变形在内的方法进行数据扩充增大训练样本数量,可以使网络性能在一定程度上得到提高。

3.3 对比分析

为验证算法的有效性及优越性,本文分别对全卷积神经网络(FCN)和原始U-net网络模型及本文算法在训练集和测试集上进行对比验证,实验结果数据见表2。

表2 本文算法与其它算法的分割结果对比

从表中可以看出,本文改进的U-net算法较其它两种方法分割性能有所提升,而且相比原模型提高了3.2%。FCN和原U-net模型性能相对较差的原因在于这两个模型对特征的提取不够好,不能有效地将海马体从MRI图像中分割出来。同时由于Adam算法的使用,网络收敛速度较其它方法更快,因此本文算法与FCN及原始U-net算法相比较,取得的分割效果最好。

4 结束语

本文针对海马体分割问题,提出了一种改进的U-net全卷积神经网络。在神经网络进行卷积的过程中输入直接被连接到后面的层,从而残差将直接被后面的层学习,对前面的学习过程进行补充,增加网络了性能。实验结果表明,本文改进的算法较全卷积神经网络模型与传统U-net模型具有更好的分割效果,并且收敛时间最短。但实验本身仍然存在一些分割准确率低的问题,虽然我们对U-net做了一定的优化,但是分割效果也并不是十分理想。针对这一问题,拟在后续实验中加入SE模块,通过对通道进行加权,强调有效信息,抑制无效信息,实现更高精确度的海马体分割算法。

猜你喜欢

海马预处理卷积
求解奇异线性系统的右预处理MINRES 方法
海马
基于3D-Winograd的快速卷积算法设计及FPGA实现
高COD二噻烷生产废水预处理研究
卷积神经网络的分析与设计
海马
从滤波器理解卷积
基于傅里叶域卷积表示的目标跟踪算法
基于预处理MUSIC算法的分布式阵列DOA估计
“海马”自述