改进图割的显著性区域检测算法
2015-12-23陈昌志安世全
朱 驰,陈昌志,2,王 宁,2,安世全,2
(1.重庆邮电大学 计算机科学与技术学院,重庆400065;2.重庆邮电大学 移通学院,重庆401520)
0 引 言
图像显著性区域检测将视觉机制引入图像处理,赋予现有图像处理过程一定的选择能力,从大量无关的图像信息中提取出显著性区域。提取出来的显著图可以广泛地应用在计算机视觉领域,如图像分割、目标识别、图像检索、自适应压缩等。常见的显著性区域检测算法有:①基于局部对比度的方法[1],其主要思想是利用图像区域相对于局部邻域的稀有度来获取显著性图,但是利用局部对比度的方法倾向于在边缘部分产生高显著性值,而不是均匀地突出整个区域;②基于全局对比度的方法[2],其主要思想是用一个区域和整个图像的对比度来计算显著性值,能够很好地均匀突出整个显著性区域。针对该方法的检测算法主要有基于频率调谐的方法[3]、基于像素对比度的方法[4]。
传统基于图的图像分割方法[5]能够有效地将图像分割成若干区域,但图像分割质量并非最佳,且分割速率较慢。本文首先采用改进的图割算法将图像分割成若干子区域,为每个区域建立颜色直方图;然后通过每个区域和其它区域的对比度加权和来为该区域定义显著性值,获取图像的显著图;最后利用迭代阈值分割方法对显著图分割,经过图像去噪后获得完整准确的显著性区域。实验结果表明,本文提出的算法能有效地提取出显著性区域,且提高了算法效率,具有很好的鲁棒性。
1 系统组成
本文采用的显著性区域检测方法由图像预分割、显著图计算、显著性区域提取3部分组成,流程如下:
(1)输入图像,对图像进行高斯平滑处理;
(2)采用改进的图割算法对平滑后的图像进行预分割,将图像分割为若干子区域;
(3)为每个区域建立颜色直方图,通过每个区域与其它区域的对比度加权和来为该区域定义显著性值,以此获取图像的显著图;
(4)对图像显著图进行中值滤波,消除图像噪声,增强显著性区域的边缘信息;
(5)针对滤波后的显著图,利用迭代阈值分割方法提取显著性区域;
(6)消除图像中的孤立点,获取完整有效的显著性区域。
系统整体流程如图1所示。
图1 系统流程
2 显著性检测
2.1 基于图的图像分割
基于图的图像分割方法是将图像分割的问题转换成一个无向图的最优化问题。用带权无向图G =<V,E >表示原图像,顶点vi∈V ,V 为图的顶点集合,与原图像中的像素点相对应,e(vi,vj)∈E 定 义 为 连 接vi和vj的 边,ω(vi,vj)为对应vi和vj之间的差异程度,将其定义为RGB彩色空间中像素点颜色值的欧氏距离,是非负度量。在对图像进行分割时,V 会被分成若干独立的区域Ci,理想的分割结果是在同一区域的像素点的差异尽可能的小,不同区域像素点之间的差异尽可能大。传统算法的分割结果如图2所示。
在图2的分割结果中,图2 (a)为原图像,图2 (b)为传统算法分割的结果,可以看出,图像被分割成19块子区域,但是有些子区域是可以合并的,这会直接影响后续显著图的计算效率,所以这种分割结果不是最佳的。
图2 基于图的图像分割实验结果
2.2 改进的基于图的图像分割
基于图的图像分割算法将像素间的差异值定义为边的权值,然后用图来表示原图像,但是在RGB彩色空间定义的像素点差异值并不能很好的反应像素间的差异,这也将直接影响图像的最终分割结果是否为最合理的,同时也会降低显著图的计算效率。
针对上述传统图割算法的缺点,本文改进的算法步骤如下:
(1)首先对图像进行高斯平滑处理,不仅能够达到图像去噪的目的而且能够消除图像中的细节信息,避免后续处理中的过分割现象。
(2)将图像转换到CIELab彩色空间,该空间的颜色值的欧氏距离最能体现像素间的差异,所以定义边权重函数为
式中:第一项为像素在Lab颜色空间的欧氏距离,体现了颜色的差异;第二项为像素坐标的欧氏距离,体现了像素的空间距离。
(3)计算区域的内部差异,定义区域Ci∈V 中其最小生成树的边最大权值为判定阈值,使得该区域是连通的,即
式中:MST(C,E)——该区域的最小生成树,ω(vi,vj)——边的权重。
(4)计算区域间的差异,定义任意两个区域C1,C2V 间的差异值为连接这两个区域的所有边中权重最小值,即
其中,如果没有边连接两个区域,可以认为这两个区域间的差异值为无穷大。
(5)根据区域内部差异和区域间差异来判定区域是否合并,判定函数定义为
式中:MInt(C1,C2)——两个区域中内部差异较小者,如果区域间的差异大于区域内部差异,则两个区域是有边界存在的,否则就不存在边界,可以将其合并为一个区域。定义MInt(C1,C2)为
(6)在对100张300×225隧道渗水区域图像进行测试后,确定常数k 为350时最合理,所达到的分割结果最理想。改进的分割算法与传统算法的分割结果如图3 所示,与图2 (b)传统算法分割结果相比可以看出改进的算法不仅能够完整地分割出显著性区域,而且分割出的子区域由原来的19块减少到6块,这将会减少显著图的计算时间,降低显著图的计算难度。
图3 本文算法的分割结果
改进基于图的图像分割算法流程如图4所示。
2.3 显著图计算
根据改进的图割算法对图像的分割结果,为每个子区域建立颜色直方图[6-8],统计子区域中每种颜色出现的概率,并通过测量与其它区域的颜色对比度来计算其显著性值,计算如式 (6)所示
图4 改进图割算法流程
式中:ω(ri)——区域ri的权值,用ri中的像素数表示,Dr——两个区域的颜色度量,定义为
式中:f(ck,i)——第i个颜色ck,i在第k 个区域中所有nk种颜色中出现的概率,k=({1,2},D(c1,i,c2,j)——两种颜色在Lab颜色空间的距离度量。
为进一步增加区域的空间影响效果,加入空间信息,使得临近的区域增大影响,较远的区域减小影响,基于空间加权区域对比度的显著性定义为
式中:Ds(rk,ri)——区域rk和ri的空间距离,定义为两个区域重心的欧氏距离,σ2s控制空间权值强度,其值越大,空间权值的影响越小,本文算法中,经大量实验后取σ2s=0.4时获取的显著图效果最佳。根据区域对比方法所获取的显著图如图5所示。
图5 显著图
3 显著图分割
针对本文改进算法所获取的显著图,在实际工作中,需要将图像中的显著性区域完整地分割出来以便进行下一步处理。为准确有效地分割出显著区域,本文采用迭代阈值分割方法[9,10],通过迭代计算出最合适的阈值,将显著区域完整提取出来。算法流程如下:
(1)首先由于在显著图计算过程中会产生噪声,本文采用中值滤波对显著图进行处理;
(2)计算显著图的平均灰度,并将其设置为迭代初始阈值T0;
(3)显著图被分为两部分,像素灰度值大于T0的为G1,小于T0的为G2,并分别计算两部分的平均灰度值m1和m2;
(5)重复步骤 (2)到步骤 (4),直到连续迭代中的T值间的差小于预定义参数t为止,经多次实验,取t=0.5;
(6)分割出显著性区域后,图像中可能还会存在一些孤立的像素点,本文通过连通区域检测,设定连通区域面积阈值消除孤立点。显著图分割结果如图6所示。
图6 显著图分割结果
4 实验结果及分析
本文使用300×225的隧道渗水区域图像,经改进图割的显著性检测与迭代阈值分割算法相结合提取出显著性区域如图7所示。
从图3和图7可以看出,改进的显著性区域检测算法效果较为明显,对于背景简单的图像,改进的算法在保证正确率的情况下,提高了算法效率。对于存在较为复杂纹理背景的图像,改进的算法不仅能够完整地分割出显著性区域,而且合理地合并了一些子区域,有利于后续显著图的计算,同时也大大加快了算法运行速度。
为了验证本文改进算法的准确性和有效性,在Achanta等人提供的包含1000张图像的公开数据集中进行测试,采用正确率P 和召回率R 评估本文算法,其定义如式 (9)和式 (10)所示
图7 改进算法分割结果
其中,Np为本文算法分割出的显著区域中真正属于显著区域的像素点个数,Nt为本文算法分割出的显著区域的像素点总数,Ng为人工标注的显著区域的像素点的总数。随机选取数据集中的23张图像,计算其正确率和召回率,实验数据见表1。
表1 改进算法的正确率和召回率
由表1 可知,图像的平均正确率和召回率分别为94.00%和93.70%,采用传统算法所得到的平均正确率和召回率分别为90%和90%,实验结果表明,本文提出的改进图割的显著性区域检测算法的实验效果具有更高的正确率,且鲁棒性较好。
5 结束语
本文采用改进的基于图的图像分割方法将图像分割成若干小区域,该方法不仅保证了分割的准确性和完整性,而且还有效地合并了相似子区域,简化了后续的显著图计算,提高了算法的运算速度。在此基础上,对显著图进行中值滤波后采用迭代阈值分割方法提取图像显著性区域,最后根据面积信息消除图像中存在的孤立点,获取整个显著性区域。实验结果表明,本文算法具有较好的分割准确率。在下一步的工作中,要研究保留详细细节的高效显著图计算方法。
[1]Huang TJ,Tian YH,Li J,et al.Salient region detection and segmentation for general object recognition and image understanding [J].Science China Information Sciences,2011,54(12):2461-2470.
[2]Achanta R,Shaji A,Smith K,et al.SLIC superpixels compared to state-of-the-art superpixel methods [J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2012,34 (11):2274-2282.
[3]Achanta R,Hemami S,Estrada F,et al.Frequency-tuned salient region detection [C]//IEEE Conference on Computer Vision and Pattern Recognition.IEEE,2009:1597-1604.
[4]Perazzi F,Krahenbuhl P,Pritch Y,et al.Saliency filters:Contrast based filtering for salient region detection [C]//IEEE Conference on Providence:Computer Vision and Pattern Recognition.IEEE,2012:733-740.
[5]Arbelaez P,Maire M,Fowlkes C,et al.Contour detection and hierarchical image segmentation [J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2011,33 (5):898-916.
[6]Cheng MM,Warrell J,Lin WY,et al.Efficient salient region detection with soft image abstraction [C]//IEEE International Conference on Sydney: Computer Vision.IEEE,2013:1529-1536.
[7]Vikram TN,Tscherepanow M,Wrede B.A saliency map based on sampling an image into random rectangular regions of interest[J].Pattern Recognition,2012,45 (9):3114-3124.
[8]Deng Q,Luo Y.Saliency detection by selective strategy for salient object segmentation [J].Journal of Multimedia,2012,7(6):420-428.
[9]Akther M,Ahmed M,Hasan M.Detection of Vehicle’s number plate at nighttime using iterative threshold segmentation algorithm [J].International Journal of Image,Graphics &Signal Processing,2013,5 (12):62-70.
[10]Al-amri SS,Kalyankar NV.Image segmentation by using threshold techniques [J].Journal of Computing,2010,5(2):83-86.