基于改进U-Net模型下的椎骨CT图像分割方法
2021-09-06刘侠余鸿波李冰王波
刘侠 余鸿波 李冰 王波
摘 要:针对经典U-Net模型在椎骨CT分割过程中对图像信息利用不充分而造成图像边缘分割不清的问题,采用一种基于改进的U-Net模型的椎骨CT图像分割算法。首先在经典U-Net模型基础上进行了改进,其次利用改进的U-Net模型分割出椎骨区域并得到粗分割结果,最后对粗分割结果利用图割算法(Graph-Cut)加强边缘约束,从而做到边缘细化分割。分割方法整体分割精度可达到95.5%,Dice系数96.2%,Jaccard系数92.6%,HdD指标4.88%。与经典U-Net模型相比Dice系数提高2.2%,Jaccard系数提高3.7%,HdD指标降低13.9%。实验结果表明,提出的分割方法对椎骨图像分割可以达到精确分割的效果,能够适用于临床中的椎骨图像分割任务。
关键词:
椎骨CT图像;U-Net网络;Graph-Cut算法;图像分割
DOI:10.15938/j.jhust.2021.03.009
中图分类号: TP391.4
文献标志码: A
文章编号: 1007-2683(2021)03-0058-07
Vertebra CT Image Segmentation Method Based
on Improved U-Net Model
LIU Xia, YU Hong-bo, LI Bing, WANG Bo
(School of Automation, Harbin University of Science and Technology, Harbin 150080, China)
Abstract:In view of the problem that the classical u-net model does not make full use of the image information during the CT segmentation of vertebrae, which leads to unclear image edge segmentation, an improved algorithm of CT image segmentation of vertebrae based on the u-net model is proposed. Firstly, it was improved and optimized on the basis of the classic u-net model. Then, the improved u-net model was used to segment the vertebral region and obtain the rough segmentation result. Finally, the rough segmentation result was strengthened by the edge constraint algorithm (Graph-Cut) so as to achieve the edge refinement segmentation. In this paper, the segmentation precision of the methord can be reached 95.5%. The Dice coefficient is 96.2%. The Jaccard coefficient is 92.6%.The HdD index is 4.88. Compared with the classic u-net model, the Dice coefficient increased by 2.2%, the Jaccard coefficient increased by 3.7%, and the HdD index decreased by 13.9%.
Keywords:CT image of vertebrae; U-Net network; Graph-Cut algorithm; image segmentation
0 引 言
健康的椎骨维持着人体正常生理形态,从颅骨开始中间连接肋骨到髋骨为止,是人体后侧支撑,具有挺拔躯体,保护内脏器官等重要作用。然而現代社会中,由于人们生活节奏加快、工作压力繁重、从事人力劳动人口众多等原因,患有椎骨疾病[1-2]的患者不断呈现出年轻化的趋势并且病患数量也再递增,据统计在40岁以下人群中患有椎骨相关疾病的人数接近40%以上。还原患者椎骨真实形态可以辅助骨科医师降低手术过程中的风险。所以针对于椎骨CT图像高精度分割出有效的椎骨信息对于辅助临床诊断迫在眉睫。
为了解决椎骨分割精度问题,国内外学者已经提出许多方法用于椎骨的自动分割。Yao等[3]提出使用一个简单的阈值来获得初始的脊柱分割,然后采用分水岭算法和有向图搜索相结合的方法提取椎管,最后用四部分椎体模型(椎体、棘突、左右横突)将椎体区域分段,并与相邻的肋骨等结构分开。Lim等[4]介绍了一个脊柱分割框架。将传统的图像处理技术、数学形态学和曲线拟合相结合来识别脊柱并通过质心还原椎骨形状。随后利用形状约束和形状能量耦合高斯核驱动水平集分割。Klinder等[5]提出了一种基于模型的方法来自动标记和分割胸腔CT图像。整合29组数据建立了完整脊柱的姿态模型。Krinidis等[6]提出一种基于模糊能量的最小化模型,将模糊能量看作最小划分问题的一个特例,该模糊能量作为模型的激励能量,使主动轮廓在目标边界处停止。Glocker等[7]提出的算法主要基于回归森林和概率图形模型。鉴别性、退行性部分的目的是大致检测脊柱的可见部分。通过生成模型获取脊柱的形状和外观,从而实现对单个椎骨的精确定位和识别。Liu等[8]提出一种改进的基于隐马尔可夫随机场框架的算法。由隐马尔可夫随机场建立分类的先验分布,将添加了记忆器的模拟退火算法与期望最大化算法进行融合,并结合最大后验估计准则来进行参数估计并得到最终结果。Ma等[9]利用可操纵特征训练了目标特异性边缘检测的判别分类器,并学习了12个胸椎的统计形状模型,这样可以保证椎体形状的光滑性和拓扑结构。
相比较以上的方法,卷积神经网络的方法具有深度特征提取能力和较强的自适应性。Suzani等[10]提出一种深入前馈神经网络来检测输入图像
是否包含特定的椎骨,虽然具有高检测效率,但却存在较大的平均定位误差。Chen等[11]提出一种联合卷积神经网络(J-CNN),这种方法采用随机森林分类器J-CNN掃描输出CT图像体积并根据相邻椎骨的信息来定位椎骨,但基于卷积神经网络的方法一般采取逐像素取块提取信息,非常耗时。Long等[12]提出端对端的全卷积神经网络利用卷积层代替全连接层,使用编码器-解码器的网络结构,分割任意尺寸图像,但该方法对于边缘细节的分割不精。
基于以上方法的研究,本文着重关注了结构简洁性能突出的U-Net模型,并根据实验分析针对经典U-Net模型提出改进:改进U-Net模型增强特征复用性,加深网络分割效果。将分割信息及图像本身特征信息作为图割算法的输入,进行分割要素的边界有效推断,解决边缘目标模糊分割问题。
1 本文算法
本文算法的整体流程主要包括4个步骤:预处理阶段突出图像中椎骨信息减少分割干扰;数据扩充为神经网络防止网络过拟合;基于改进U-Net 网络模型的图像粗分割,以及采用GraphCut对粗分割轮廓的细化。整个数据集按照7∶3比例分为训练集和测试集。
训练集用于网络训练,测试集用于测试网络分割能力。主要分割流程具体描述如图1所示。
1.1 数据预处理
常见预处理包括去噪去雾等[13]操作, 由于需要从椎骨图像样本中提取出感兴趣区域所以对其进行预处理,预处理结果作为训练网络和进行测试所使用的数据样本。首先对椎骨CT图像进行限制对比度自适应直方图均衡化(Clahe),通过计算图像的局部直方图,然后重新分布亮度来改变图像对比度,有利于改进图像的局部对比度以及获得更多的图像细节,然后经过双边滤波(bilateral filter,BF)。双边滤波采用了两个高斯滤波的结合,一个负责计算空间邻近度的权值,而另一个负责计算像素值相似度的权值,将图像空间信息与邻近像素信息相结合,在滤除噪声平滑图像[14-16]的同时,又做到边缘保存。最后利用Gamma矫正平滑的扩展暗调的细节,预处理结果如图2所示。
1.2 数据扩充
由于可用的已标注的椎骨图像数据较少,难以用于训练一个深度神经网络模型,同时在训练神经网络过程中会有大量的参数,必须依靠大规模的训练数据才能防止出现过拟合。基于此,针对椎骨CT图像数据量少的情况,引入了由 Wang等[17]提出的图像变形的方法来对图像数据进行扩充,借助该方法可生成更具形状差异性的图像数据以供网络进行训练。图3为图像扩充的实现。
在本文中,首先对所有原始的 CT切片进行图像变形,之后对原始图片及其图像变形后的图片应用随机旋转,随机平移,垂直翻转,水平翻转等四种数据扩充方法,从而最终实现原始椎骨图像数据的数据扩充。
1.3 改进的U-Net模型
图4所示为本文中所改进的U-Net网络结构,以经典的U-Net[18] 网络为基本框架,设计一种更利于椎骨分割的更深层次的网络模型。本文算法的核心思想是通过卷积压缩部分进行目标区域的特征提取,结合卷积还原部分进行上采样,将获取的基于上下文信息综合得到更精确的结果。本实验采用的网络架构如图2所示,网络由11个卷积层组、5个池化层、5个上采样层组成。其中前4个卷积层包含两个卷积操作,卷积核大小为3×3,最后1个卷积层包含3个卷积操作,卷积核大小为5×5,以此达到扩大局部感受的目的。在每一个卷积操作后面添加一个RELU的线性修正单元和一个卷积核为2×2的最大池化层。上采样层采用反卷积操作实现一对多的图像恢复操作,跳层结构记录了池化时的位置并将输入的特征按记录的位置进行还原。它的输出则是与输入图像大小相同的分割分割图像。跳层结构弥补反卷积时仅仅利用最后一层中卷积核中的特征的缺陷,防止了特征信息的丢失。区别于原始的U-Net网络采用最大池化层(max-pooling layer)进行下采样,其中最大池化层步长为2卷积核为2×2,输入为卷积块生成的特征图,使用池化层能降低输出维度、避免特征冗余。上采样能增大特征图的分辨率,使图像还原到原始大小。每上采样1次,都要与特征提取中对应通道数尺度相融合,目的是为了获得多尺度特征信息来提高网络性能,但特征提取部分要先整合成相同大小的特征图。
1.4 图割算法
Chen等[19]致力于基于切口的医学分割方法,包括图形切割和图形搜索以进行区域和表面分割。图割算法的核心理论就是通过边界能量函数与区域能量函数的极小值的来找出最优的分割路径,具有效率高、鲁棒性强、分割精确度高的特点。图割(Graph-Cut)算法的理论基础来源于图论,对图像中带权值的边进行路径规划。基于改进U-Net的椎骨分割方式 ,可以实现高精度分割,但其分割边缘信息细粒度依旧不够完整。为了提高椎骨边缘分割能力,引入图割算法对改进U-Net分割结果进行边缘细化分割。在图像处理领域,采用图割算法对像素类别进行判断,建立了像素与其相邻像素之间的空间关系,可以高效分割不同类别像素之间的界限。对于图像来说将其看做无向图求取能量函数最小值,它的能量函数包含区域项和边界项,能量函数如下
E(A)=λ·R(A)+B(A)(1)
E(A)表示各边的权重之和,即能量函数。图割的目标就是使能量函数E(A)的值最小,找到合适的边的路径将图像分割开。R(A)为区域项(regional term)能量函数,B(A)为边界项(boundary term)能量函数。系数λ≥0,值代表了区域项能量函数对总能量函数的影响。区域项能量函数可以用下式表达:
R(A)=∑p∈PRp(Ap)(2)
区域项R(A)表示将像素点标记为背景点或者前景点的代价。其中Rp(Ap)为将像素点p为标签Ap的惩罚代价,Rp(Ap)的值可以通过比较像素点p的灰度和给定的目标和前景的灰度直方图来获得。假设图像是满足马尔科夫模型(MAP-MRF),那么Rp(Ap)可以表达为如下形式:
Rp(“obj”)=-lnPr(Ip|O)(3)
Rp(“bac”)=-lnPr(IP|B)(4)
由式(3)、(4)可得,根据目标区域概率Pr(Ip|B)与背景区域概率Pr(Ip|O)大小的比较,就可以将图像中某一个像素点p进行划分,假如概率Pr(Ip|O)大于属于背景区域的概率Pr(Ip|B),根据公式可以计算出Rp(“obj”)小于Rp(“bac”)。得到的结果为像素p在大概率上位于目标区域中,像素p标记为目标点就会使区域项能量函数R(A)的值变小。当图像的像素集合都被成功标记以后,区域项的能量将会达到最小值,此过程只需要依次判断像素点的标记,不存在迭代标记。边界项能量函数表示为如下形式:
B(A)=∑{p,q}∈NB{p,q}·δ(Ap,Aq)(5)
δ(Ap,Aq)=1 if Ap≠Aq
0 otherwise(6)
边界项B(A)可以表示为对相邻像素点p和q的不连续性的惩罚。B{p,q}的值可以用像素点的亮度梯度来表示:
B{p,q}∝exp-(Ip-Iq)22σ2·1dist(p,q)(7)
如果p和q亮度值越相近证明属于一类的机会越大,B{p,q}越大,如果p和q的亮度差异很大证明两个像素点灰度变化较大可能位于待分割目标的边缘附近,B{p,q}接近0,需要将两个像素之间相连接的边进行分割。因此,边界项上的规律为两邻域像素差别越大,B{p,q}越小,即被割斷的代价最小。
1.5 分割算法伪代码
主要由两部分组成,第一步分割后将会产生一个图输入大小相同的特征图像,第二步将分割图像按照无向图处理,重新构建图割算法的能量函数,从而完善分割后图像的边界细节。其中改进U-Net分割根据搭建的分割框架根据训练好的参数结果将预处理后的原始图像进行分割,获取到了第一次分割的结果并进行保存,但部分椎骨边缘分割分割黏连,没有按照预想进行贴附椎骨边缘细节进行分割。经过图割算法,首先框选分割范围,对前景与背景做出标记,从而优化出椎骨边缘细节。优化算法伪代码如下:
输入:图像数据集的训练样本X
输出:分割完成的图像数据
1 全卷积网络读入训练样本X
2 for x1,x2,…,xnX
3 训练集训练U-Net模型
4 end for
5 保存训练得到的模型框架
6 加载U-Net模型,分割待分割图像
7 图割算法加载分割图像
8 while E(A)不是最小值
10 更新E(A)
11 end while
12 得到图像像素的概率图,映射到待分割图像
13 输出图像分割结果
2 实验结果分析
2.1 实验环境
本文分割算法实验环境为Ubuntu16.04 LST 64位操作系统,3.4GHz CPU,16GB内存,显卡NVIDIA GTX1080Ti Tensorflow1.8 Keras2.2框架进行椎骨CT图像定位分割实验。
采用模型微调的方式进行模型训练,首先利用已有的数据集对预U-Net网络模型进行与训练作为基础网络;然后对U-Net的卷积层参数进行复制和固定;并通过设置标准偏差为2/N的高斯分布来初始化权重,其中N表示一个神经元的输入节点的数量; 最后,设置合理的学习率,学习率过大会导致模型震荡不能收敛,学习率过小会导致训练速度慢,本文将学习率设置为0.001,学习率以“step”方式减小。
2.2 数据集
本文中所用的数据由MICCAI2015椎体分段挑战提供,数据集主要是胸椎段和腰椎段的椎骨,该数据集平面内分辨率为512×512,水平分辨率是96dpi,垂直分辨率是96dpi,切片厚度为1mm,每个图像都带有相应的专家手动注释的椎骨(白色)和背景(黑色)的真实分割图。
本实验的原有数据共选取MICCAI2015数据集中600张含有椎骨的CT图像,训练之前首先需要将原始DICOM格式的图像保存为TIF的格式。这样可以保留更多的图像细节信息。然后通过数据增强的方式增大图像训练集,并将图片分辨率改为256×256。新加入的数据集如果不做尺度变换,会对原来训练集产生一定干扰。使模型训练出现偏差,影响检测精度。然后将脊椎CT图像数据集随机划分为10个互斥子集,选取3个子集作为测试集,其余7个子集作为训练集。为验证分割结果的普适性,随机筛选CSI椎骨数据集中10位患者椎骨图像进行验证分割,筛选患者性别数量平均,年纪范围19~38周岁如表1所示。该数据集全部对外公开采集方式为医院临床治疗样片底版,数据集包含胸椎、腰椎CT图像。
3.3 分割结果评估与分析
为了更全面的评估结果,我们同时采用区域和分类精度两类评估指标[20-21],即Dice重合率、Jaccard相似系数、分类精度和Hausdorff距离(Hausdorff distance,HdD)。其中Dice和Jaccard是基于区域的评价指标,侧重于标签参考区域与自动分割结果在空间维度上的重合度;分类精度和Hausdorff距离是基于像素点分类和像素距离的评价指标,侧重于标签参考区域与自动分割结果轮廓的重合度。当标签参考区域与自动分割的区域完全重合时,即Dice、Jaccard、Precision指标越高,HdD指标越小时,表示分割出的椎骨效果越好。其定义如下:
Jaccard=|A∩B||A∪B|=|A∩B||A|+|B|-|A∩B|(8)
Dice=2|A∩B||A|+|B|(9)
precision=TPTP+FP(10)
HdD=max(maxPGGdmin(ps,S),maxPGSdmin(ps,S))(11)
式中:A为标签参考区域;B为分割的区域;TP为正确分类样本个数;FP为错误分类样本个数;dmin(PG,S)为标签参考区域上的点到分割区域上最近点的距离;dmin(ps,G)为分割区域上的点到标签参考区域上最近点的距离。
如图5所示为椎骨的实验分割结果。利用本提出算法对颈椎图像,胸椎切片图像,以及腰椎图像分别从冠状面,横截面,矢状面进行分割。其中,图5(a)为图片原始数据,图5(b)为模型分割结果,图5(c)为加入图割的分割结果。由图可见,经过粗分割后图像边缘连接处存在过度分割的问题;而后将图割算法加入进行边缘像素约束,边缘分割精度有明显的提升。相比较于其他算法的边缘不够平滑,存在分割边界凹凸不同的问题,本文的分割图像边缘较为平滑且分割效果较为突出。
为确保本文分割方法具有普适性,对于临床椎骨图像同样适用。在同样为临床样片的CSI数据集中随机筛选出CT图像进行分割,验证分割方法的准确性。图6(a)为原始临床样片,清晰可见各种脏器干扰。为了验证分割普适性,将原始图像导入分割算法后,经U-Net改进算法分割以及Graph-Cut算法优化,图6(b)为得到的分割结果。
依据以上的分割结果,本文研究的框架模型与其他模型算法进行分割性能的评价与比较,可以看出本文模型作为本研究框架的核心算法,能够更好的获取目标边界,具有较高的分割精度。为进一步展示所提方法的分割优势,不同分割方法的实验结果对比如图7、图8所示。
在Dice重合率、Jaccard相似度、HdD指標和Precision指标评价均优于其他传统的椎骨分割算法。
本文的方法在效率上也相对比较高,分割速度对比结果如表2所示,平均处理一张图片的时间大约需要1s与其他分割算法比较相对分割速度较快。这是因为本文的方法在网络训练好了以后就可以直接进行图像分割工作,在分割的过程中只需要执行网络的前项计算,而且本文的模型属于端到端的网络,即执行一次就可获得分割结果,这样节省了很多时间。
3 结 论
本文提出 一种基于改进的U-Net网络和条件随机场算法的椎骨分割方法。该方法首先将DICOM数据进行格式转化,并对数据进行预处理。然后利用改进的U-Net网络进行椎骨分割,通过加入了Dice损失函数,有效解决了椎骨图像中前景与背景区域的比例问题。最后加入Graph-Cut进行边缘约束,有效解决边缘不平滑和分割不完整的问题。实验结果表明本文方法在对椎骨轮廓进行分割时具有较高的效率和较好的分割精度,但对于椎骨切片内部的情况分割不完整。在之后的研究学习中,我们应该将CT图像内部的空间特征和边缘特征相结合,使得我们能够更加精准的分割出椎骨。
参 考 文 献:
[1] 陈涛, 黎观保, 梁科友, 等. 脊柱-骨盆矢状面平衡及其在脊柱疾病治疗中的作用[J].中国组织工程研究,2013,17(13):2423.
CHEN Tao, LI Guanbao, LIANG Keyou, et al. The Role of Spino-pelvic Sagittal Balance in the Treatment of Adultspinal Deformity[J].Journal of Clinical Rehabilitative Tissue Engineering Research,2013,17(13):2423.
[2] 徐启武. 中国神经外科学界应重视脊髓脊柱疾病的研究[J].中华神经外科杂志,2006(10):581.
XU Qiwu. Chinese Neurosurgery Should Pay Attention to the Research of Spinal Cord Diseases[J].Chin J Nesurg, 2006(10):581.
[3] YAO J, O′CONNOR S D, SUMMERS R M. Automated Spinal Column Extraction and Partitioning[C]// IEEE International Symposium on Biomedical Imaging: Nano To Macro. IEEE, 2006:390.
[4] LIM P H, BAGCI U, ARAS O, et al. Identification of Spinal Vertebrae Using Mathematical Morphology and Level Set Method[C]// Nuclear Science Symposium and Medical Imaging Conference. IEEE, 2011:3105.
[5] KLINDER T, LORENZ C, BERG J V, et al. Automated Model-B-ased Rib Cage Segmentation and Labeling in CT Images[M]// Medical Image Computing and Computer-Assisted Int-ervention-MICCAI 2007. Springer Berlin Heidelberg, 2007:195.
[6] KRINIDIS S, CHATZIS V. Fuzzy Energy-Based Active Contours[J]. IEEE Transactions on Image Processing, 2009,18(12):2747.
[7] GLOCKER B, FEULNER J, CRIMINISI A, et al. Automatic Localization and Identification of Vertebrae in Arbitrary Field-of-view CT Scans[C]// Med Image Comput Comput Assist Interv, 2012:590.
[8] 刘侠, 匡瑞雪, 王波. 基于隐马尔可夫场的脊柱CT图像分割算法[J].哈尔滨理工大学学报,2018,23(2):1.
LIU Xia, KUANG Ruixue, WANG Bo.Segmentation Algorithm of Spine CT Image Based on Hidden Markov Random Field[J]. Journal of Haerbin University of Science and Technology, 2018, 23(2):1.
[9] MA J, LU L, ZHAN Y Q, et al. Hierarchical Segmentation and Identification of Thoracic Vertebra Using Learning-Based Edge Detection and Coarse-to-Fine Deformable Model[J]. Computer Vision & Image Understanding, 2013, 117(9):1072.
[10]SUZANI A, SEITEL A, LIU Y, et al. Fast Automatic Vertebrae Detection and Localization in Pathological CT Scans-A Deep Learning Approach[C]// Medical Image Computing and Computer-Assisted Intervention-MICCAI 2015. Springer International Publishing, 2015:678.
[11]CHEN H, SHEN C, QIN J, et al. Automatic Localization and Identication of Vertebrae in Spine CT Via a Joint Learning Model with Deep Neural Networks[C]// In International Conference on Medi-cal Image Computing and Computer-Assisted Intervention,2015:515.
[12]LONG J, SHELHAMER E, DARRELL T. Fully Convolutional Networks for Semantic Segmentation [J].IEEE Transactions on Pattern Analysis & Machine Intelligence , 2017,39(4):640.
[13]董靜薇,赵春丽,海博.融合同态滤波和小波变换的图像去雾算法研究[J].哈尔滨理工大学学报,2019,24(1):66.
DONG Jingwei, ZHAO Chunli, HAI bo. Research on Image Defog Algorithm Based on Fusion Homomorphic Filtering and Wavelet Transform[J].Journal of Haerbin University of Science and Technology,2019,24(1):66.
[14]李小红, 蒋建国, 吴从中. 图像去椒盐噪声滤波器的研究[J]. 工程图学学报, 2009(6):113.
LI Xiaohong, JIANG Jianguo, WU Congzhong. Research on Filter for Removing Image Salt and Pepper Noise[J]. Journal of Engineering Graphics, 2009(6):113.
[15]NAKASHIZUKA M, KOBAYASHI K I, ISHIKAWA T, et al. Convex Filter Networks Based on Morphological Filters and their Application to Image Noise and Mask Removal[J]. IEICE Transactions on Fundamentals of Electronics Communications and Computer Sciences, 2017, 100(11):2238.
[16]CAO Wei, WANG Huabin, SHI Jun, et al. Enhancement Algorithm of Finger Vein Image Based on Weighted Guided Filter with Edge Detection[J]. Laser & Optoelectronics Progress, 2017, 54(2):021007.
[17]WANG Qihui, XI Yan, CHEN Yi, et al. CT Reconstruction with Priori MRI Images Through Multi-Group Datasets Expansion[J]. Journal of Shanghai Jiaotong University(Science), 2017(6):118.
[18]HAN Y, YE J C. Framing U-Net Via Deep Convolutional Framelets: Application to Sparse-view CT[C]// IEEE Transactions on Medical Imaging, 2018:1.
[19]CHEN X, PAN L. A Survey of Graph Cuts/Graph Search Based Medical Image Segmentation[J]. IEEE Reviews in Biomedical Engineering, 2018(99):1.
[20]韦修喜, 周永权. 基于ROC曲线的两类分类问题性能评估方法[J]. 计算机技术与发展, 2010(11):53.
WEI Xiuxi, ZHOU Yongquan. A New Performance Categories Evaluation Method Based on ROC Curve[J].Computer Technology and Development, 2010(11):53.
[21]林珊珊, 周桂军, 吴波. 面向对象的高分辨率遥感影像分割分类评价指标[J]. 地球信息科学学报, 2013:15(4):567.
LIN Shanshan, ZHOU Guijun, WU bo. Object-oriented High-resolution Image Segmentation and Classification Evaluation Index[J].Journal of Geo-information Science, 2013:15(4):567.
(编辑:温泽宇)