基于贝叶斯方法的视觉跟踪
2015-04-27颜晓文谢杰腾
颜晓文 谢杰腾
摘 要:在视觉跟踪研究中,存在目标遮挡、目标形变、目标旋转、光照变化、尺度变化等强干扰因素。一般的跟踪方法都是针对跟踪目标框内的图像信息建模并进行跟踪,而忽略了跟踪目标框以外的邻域图像和目标图像之间的相关性,导致这些强干扰条件下出现跟踪漂移或者跟踪失败的情况。提出利用目标邻域空间信息进行视觉跟踪的新方法,首先在指定的目标框的邻域范围内采集邻域图像信息,然后对采集到的邻域图像和跟踪目标图像初始化先验信息。在跟踪过程中通过贝叶斯框架下的投票机制估计目标位置,完成位置估计后在线更新目标图像和邻域图像的先验信息,并根据先验信息进行模板更新。实验证明在贝叶斯框架下使用目标图像的邻域信息进行辅助能够有效地应对遮挡、旋转和形变等情况,提高跟踪的鲁棒性。
关键词:贝叶斯方法;分块跟踪;直方图;鲁棒性
中图分类号:TP391.4 文献标识码:A 文章编号:2095-1302(2015)04-00-03
0 引 言
视觉跟踪是计算机视觉的重要组成部分,经过多年的研究与发展,在安防监控、对象识别、辅助驾驶和人机交互等方面得到广泛应用。但是视觉跟踪在动态环境下仍然面临很多问题,例如光照变化、遮挡、旋转、形变和尺度变化等,造成这些问题的根本原因是目标表观的多变性和依赖多变的目标表观来跟踪目标[1]。
分块跟踪[2]使用直方图对分块的目标图像的亮度特征建模,然后针对每个分块单独跟踪,最后通过分块投票决定目标位置。增量学习跟踪[3]使用PCA方法建模目标的表观模型,用粒子滤波估计目标位置。VTD[4]综合HVS直方图和PCA两种方法建模目标表观,使用基于马尔可夫链的粒子滤波估计目标位置。实时压缩跟踪[5]和基于压缩感知的实时跟踪[6],根据压缩感知理论使用稀疏化的方法建模目标表观。不同的是文献[6]使用l1优化方法实现目标稀疏化表示,而文献[5]则是通过精心选择的随机高斯测量矩阵直接计算,实现目标稀疏化表示,计算效率远高于l1优化方法。超像素跟踪[7]和星系跟踪[8]使用图像分割方法把目标图像分割为超像素,将超像素看成特征统计的基本单元,然后针对超像素的直方图特征进行聚类,用获得的聚类特征来建模目标表观,然后用粒子滤波方法估计目标位置。
在贝叶斯框架下将目标图像和邻域图像统一考虑,综合分块跟踪和邻域信息辅助跟踪提出新的扩展分块跟踪方法。第二部分介绍使用邻域图像和目标图像在贝叶斯框架下的目标跟踪,第三部分是跟踪实验。
1 邻域辅助跟踪
1.1 目标邻域特征点
在序列图像中,目标与邻域内特征点存在稳定的空间相关性,我们可以利用这种空间相关性解决目标被完全遮挡情况下的目标位置估计问题。图1(a)是跟踪过程中无遮挡情况下建立的邻域特征点的支持模型,即目标与邻域特征点之间的空间相关性,图1(b)是跟踪过程中发生目标完全遮挡,但是部分目标邻域特征点仍然可视,那么通过可视的部分邻域特征点仍然可以准确的估计出目标位置。
1.3 扩展的目标分块
在人脸跟踪的图像序列中,头发、脖子和肩部成像与脸部成像有稳定的空间相关性,因此可以将头发、脖子和肩部成像看成脸部成像的扩展和延伸,把目标和邻域看成一个整体,即扩展的跟踪目标。综合分块跟踪和目标邻域特征点辅助跟踪的思路,使用分块跟踪法跟踪扩展的跟踪目标,这样将分块跟踪的适用范围从不完全遮挡扩展到完全遮挡的情况。在目标邻域内截取矩形图像块,然后和目标图像块一起进行分块跟踪。在图3中,黄色矩形框O0为指定的跟踪目标,黄色矩形框与红色矩形框之间的区域为目标邻域,将目标和目标邻域组合成一个扩展的新目标,即整个红色矩形框内的图像,然后在扩展目标上使用分块跟踪法跟踪。在目标邻域内截取矩形图像O1,O2,…,On,建立图像块Oi的支持模型(dix,diy),如图4所示,dix和diy是图像块Oi中心点到图像块O0中心点的距离在x轴和y轴上的分量。
2 跟踪实验
在视觉跟踪研究中常选择在特征空间中建模目标,本文在HSV模型空间中用直方图建模目标,与跟踪算法VTD,TLD算法进行测试比较,用trellis.avi和david_indoor.avi两个测试视频对跟踪方法进行比较,比较结果如图6所示。这两个视频是比较跟踪算法时常用的视频,这两个视频中有光照变化,尺度变换,目标形变等干扰因素,是测试新跟踪方法的标准测试视频。
从跟踪结果的来看,VTD跟踪方法在跟踪开始不久,在136帧逐渐出现了跟踪漂移,并且漂移越来越严重,到191帧时,表示目标位置的矩形框完全脱离目标,直到411帧开始,跟踪框才慢慢的恢复到目标位置上,从191帧到411帧中间的220帧,跟踪目标一直处于丢失状态。从整个跟踪序列来看VTD跟踪的表现,大部分时间都存在跟踪漂移问题,为什么会出现这钟现象,根本原因还是在于模板。VTD方法使用基于多马尔可夫链的粒子滤波框架进行跟踪,而跟踪框架的设计上没有模板保存和更新模块,因此,当一帧图像跟踪结果出现小的偏差后,下一帧的跟踪会以有偏差的位置为基准进行跟踪,这样每帧中出现的小偏差就会累积,到后来使得跟踪结果完全偏离目标的正确位置,出现丢失跟踪目标的情况。如果在框架中引入偏差的修正模块,那么出现的偏差可以根据模板及时进行纠正,避免误差累积,消除跟踪漂移问题。
3 结 语
该方法跟踪首先在指定的目标框的邻域范围内采集邻域图像信息,然后对采集到的邻域图像和跟踪目标图像初始化先验信息。在跟踪过程中通过贝叶斯框架下的投票机制估计目标位置,完成位置估计后在线更新目标图像和邻域图像的先验信息,并且根据先验信息进行模板更新。在贝叶斯框架下使用目标图像的邻域信息进行辅助能够有效的应对遮挡、旋转和形变等情况,提高跟踪的鲁棒性,证明了贝叶斯方法和基于领域图像方法的有效性。
参考文献
[1] Yao R,Shi Q, Shen C,et al. Robust tracking with weighted online structured learning[C]. Computer Vision–ECCV 2012:Springer,2012:158.
[2] Adam A, Rivlin E, Shimshoni I, editors. Robust fragments-based tracking using the integral histogram[C]. Computer Vision and Pattern Recognition, 2006 IEEE Computer Society Conference on,2006.
[3] Ross D A, Lim J, Lin R S, Yang M H. Incremental learning for robust visual tracking[J]. International Journal of Computer Vision. 2008,77(1-3):125-141.
[4] Kwon J, Lee K M,Visual tracking decomposition[C]. Computer Vision and Pattern Recognition (CVPR), 2010 IEEE Conference on,2010.
[5] Zhang K, Zhang L, Yang M H. Real-time compressive tracking[C]. Computer Vision–ECCV 2012:Springer,2012:864-877.
[6] Li H, Shen C, Shi Q. Real-time visual tracking using compressive sensing[C]. Computer Vision and Pattern Recognition (CVPR), 2011 IEEE Conference on,2011.
[7] Wang S, Lu H, Yang F,et al. Superpixel tracking. Computer Vision (ICCV)[C]. 2011 IEEE International Conference on, 2011.
[8] Wang W, Nevatia R. Robust object tracking using constellation model with superpixel[C]. Computer Vision–ACCV 2012: Springer, 2013:191-204.