灰度成像扩展目标跟踪直方图匹配修正方法
2018-03-23秦雨萍尹福成
秦雨萍 张 双 张 萍 尹福成
(1.成都理工大学工程技术学院 乐山 614000)(2.内江师范学院 内江 641000)
1 引言
扩展目标图像中目标与背景往往存在灰度级重叠,色彩信息不丰富,目标与背景相近等特点。使扩展目标的完整分割几乎不可能,因此,传统的基于目标分割的质心跟踪方法就无法准确求取质心,或者所得的质心存在较大漂移,很难适应工程实际应用要求。而相关跟踪方法中的相关匹配计算量通常较大,由于扩展目标图像的成像面积大,导致许多相关跟踪方法由于数据量过大而难以有效地运用于实时系统中。Dorin Comaniciu等提出了一种目标彩色成像跟踪方法[1],利用目标彩色成像的色彩分布或者某种变换后的色彩分布(如梯度等)构造的直方图模式作为目标模式,候选目标与目标之间相似性的度量采用基于Bhattacharyya系数定义的距离[2],匹配搜索过程采用Fukunaga和Hostetler提出的均值偏移(mean shift)算法[3]。该方法具有计算量小,抗局部遮挡的优点,在对多种类型的图像跟踪试验中获得了比较理想的结果。然而对于灰度成像跟踪,由于图像的色彩信息不够丰富,使目标与背景成像的色彩差异较小,利用色彩分布构造的直方图模式会存在局部相似性,导致匹配搜索收敛到伪目标,即跟踪点发生抖动或漂移,最终失去所跟踪的目标。针对上述问题,本文提出了基于均值偏移的直方图匹配修正模式,并建立了目标被短暂遮挡时的卡尔曼预测跟踪策略。试验表明,改进后的方法可有效改善扩展目标实时检测跟踪的稳定性和适应性。
2 算法描述
基于直方图模式的跟踪算法主要包含目标模式定义,相似度测量,均值偏移和卡尔曼预测几个部分。
2.1 目标模式定义
目标直方图模式是基于检测区域内包含目标的各个成像灰度级所对应的概率密度,灰度概率密度的求取采用非参数估计技术[4]。假设目标跟踪点为y,检测区域是以y为中心、窗宽为h的矩形,区域内像素的位置以{xi}i=1…m表示,像素位置的特征如灰度、纹理、边缘或者小波滤波响应等以b(xi)表示,b(xi)可以是一种特征形成的标量,也可以是几种特征形成的矢量。本文中仅考虑利用灰度特征,并将其值量化为m值,即函数b:R2→{1…m}为xi像素的灰度索引映射。由于目标可能受到背景和遮挡的影响,周边像素的可靠性较低,因而离中心越远的像素分配的权值应越小,灰度概率密度是像素位置的函数[1]:
2.2 相似性度量
不失一般性,将目标中心标记为0,候选目标中心为 y,由式(1)定义的目标模式可确定目标与候选目标的直方图模式分别为
2.3 均值偏移
均值偏移算法是计算最优解的一种实用的算法,具有计算量小和搜索快速的特点,Dorin Coman⁃iciu等将其有效地运用到目标分割[5~10]和目标跟踪中[1]。
这样在每帧图像上迭代的收敛点即为跟踪点。
2.4 直方图匹配修正
利用上述算法,在跟踪过程中会出现漂移的情况,即使是几个像素,如果不加以修正。根据均值偏移的特性,一旦误差累积,最后都将会出现大范围漂移。为此提出了块直方图匹配二次修正算法,来修正跟踪结果,控制模板的更新情况[9~13]。
设图像灰度级为L,k∈[0,L-1]是图像的第k个灰度等级,定义图像的灰度直方图为:
令目标图像和候选目标图像的直方图分别表示为Hist(k)和Hist*(k),则定义直方图的相关系数为
η用来描述目标图像直方图和候选目标图像直方图的相似性,η越大,证明两幅图像的直方图越相似,进而两幅图像就越相似。
2.5 卡尔曼预测
当扩展目标被遮挡时,采用卡尔曼预测跟踪[14~18],其状态方程为:
其中,T为帧间间隔,Sx(n)、Sy(n)为扩展目标于n时刻分别在x轴和y轴上的位置(坐标系以图像帧左上角为原点,水平向右为y轴,垂直向下为x轴),Vx(n)、Vy(n)分别为n时刻扩展目标在x轴和y轴方向上的速度,vx(n)、vy(n)为帧间间隔内扩展目标速度的随机量,为零均值白噪声。
其测量方程为:
式中,lx(n)、ly(n)分别为输出目标位置的误差量。
3 试验结果
对大小为640×480的图像序列,利用式(1)定义的直方图模式跟踪算法(算法1)以及式(10)定义的修正算法进行了检测跟踪试验。试验中跟踪检测窗口取为h=(40,38),图像灰度量化级数为m=16。跟踪系统采集图像为25帧/秒,试验中(P4 2.5,1G内存)每帧图像处理平均时间分别为13.5ms和22.4ms,均小于40ms,故两种跟踪算法均可满足实时性要求。
图1为分别利用算法1和修正算法得到的飞机在跑道上从滑行到起飞的同一序列图像跟踪检测结果,矩形框为跟踪区域,矩形框中心为跟踪点位置。由图可见,在序列图像中,目标位置、姿态以及背景的变化都较大,由此造成在跟踪过程中算法1得到的跟踪点位置跳动十分剧烈,漂移十分严重。而采用算法2跟踪点则得到了较好的保持,实现了稳定跟踪。图2(a)和图2(b)分别为两种算法用于该测试图像序列所得到的目标跟踪点轨迹,图2(c)为目标的真实轨迹。可以看到算法1得到的跟踪点存在较大的抖动,而采用修正算法跟踪点轨迹较为平滑,能保持较稳定的跟踪。图3分别是算法1与修正算法在处理图像时迭代的次数,由图可见,由图可见修正后的算法大部分在4次以下,甚至有大部分在一两次就能迭代到理想位置。从而可以说明修正算法在跟踪过程中是可行,高效的。
4 结语
本文研究了一种灰度成像扩展目标跟踪算法。针对灰度成像的图像中由于色彩信息不够丰富,目标和背景的成像特征差异小,采用常规直方图模式易陷于局部相似性导致跟踪点抖动和漂移的问题,通过考虑目标的空间域信息和特征域信息,构造了基于像素位置与像素灰度值的改进直方图模式,结合均值偏移迭代搜索匹配区域,快速实现对扩展目标的跟踪定位,并建立了有效的卡尔曼预测跟踪策略。试验表明本文算法在目标姿态和背景变化较大以及目标被短时遮挡的情况下仍能保持对初始瞄准点的良好跟踪,有效提高了对灰度成像扩展目标跟踪检测的稳定性。本文算法具有计算量小的特点,可满足扩展目标跟踪的实时性要求。
[1] Dorin COMANICIU, Visvanathan RAMESH, Peter MEER.Kernel-based Object Tracking[J].IEEE Trans.Pattern Anal.Mach.Intell.,2003,24(5):564-577.
[2]T.KAILATH.The Divergence,Bhattacharyya Distance Measures in Signal Selection[J].IEEE Trans.Comm.Technology,1999,15(2):253-259.
[3]K.FUKUNAGA ,L.D.HOSTETLER.The Estimation of the Gradient of a Density Function with Applications in Pattern Recognition[J].IEEE Trans.Information Theory,1975 21(5):32-40.
[4]LIHong-dong,YAO Tian-xiang.Pattern Classification,Second Edition[M].Beijing:China Machine Press,2003:132-140.
[5]Dorin COMANICIU,Peter MEER.Mean Shift:a Robust Approach toward Feature Space Analysis[J].IEEE Trans.Pattern Anal.Mach.Intell. ,2002,24(5):603-619.
[6]Stockman G.,Kopstein S.,Benett S.,Matching images to models for registration and object detection via clustering[J].IEEE Transactions on Pattern Analysis and Machine Intelligence.1982,4(3).229-241.
[7]Goshtasby A.and Stockman G.,Pointpatternmatching us⁃ing convex hulledges[J].IEEE Transactions on Systems,Man,and Cybernetics.1985,15(5).631-637.
[8]Huttenlocher D.P.,Klanderman G.A.,RucklidgeW.A.,Comparing images using the hausdorff distance[J].IEEE Transactions on Pattern Analysis and Machine Intelli⁃gence.Sep.1993,15(9).850-863.
[9]BurtP.J.,The pyramid asa structure forefficientcomputa⁃tion[C]//Multiresolution Image Processing and Analysis.Springer-Verlag,Berlin,1984.6-35.
[10]Adelson E.H.,Depth-of-Focus Imaging Process Method[M].United States Patent4,661,986.1987.
[11]Nandhakumar N.and Aggarwal J.K.,Integrated analysis of thermal and visual images for scene interpretation[J].IEEE Transactions on Pattern Analysis and Machine In⁃telligence.1988,10(4).469-481.
[12]Toet A.,Image fusion by a ratio of low-pass pyramid.Pat⁃tern Recognition Letters[J].1989,9(4).245-253.
[13]Toet A.,Ruyven J.J.V.,Valeton J.M.,Merging thermal and visual images by a contrast pyramid[J].Optical En⁃gineering.1989,28(7).789-792.
[14]AbidiA.and Gonzalez R.C.,Data Fusion in Robotics and Machine Intelligence[M]. New York:Academic Press.1992.
[15]Dasarathy B.V.,Fusion strategies for enhancing decision reliability in multi-sensor environments[J].Optical En⁃gineering.1996,35(3).603-616.
[16]Li H.,Manjunath B.S.,Mitra S.K.,Multi-sensor image fusion using the wavelet transform[J].IEEE Internation⁃al Conference on Image Processing.Nov.1994,Vol.1.51-55.
[17]Chipman L.J.,Orr Y.M.,Graham L.N.,Wavelets and image fusion[C]//Proceedings of the International Con⁃ference on Image Processing.Washington,USA,1995.pp.248-251.
[18]Koren I.,Laine A.,Taylor F.,Image fusion using steer⁃able dyadic wavelet transform[C]//Proceedingsof the In⁃ternational Conference on Image Processing.Washing⁃ton,DC,USA,1995.pp.232-235.