单目标跟踪算法综述*
2016-11-11汪鸿翔柳培忠骆炎民顾培婷
汪鸿翔 柳培忠 骆炎民 洪 铭 顾培婷
单目标跟踪算法综述*
汪鸿翔1柳培忠1骆炎民2洪 铭1顾培婷1
1.华侨大学工学院 2.华侨大学计算机科学与技术学院
目标跟踪是计算机视觉领域的一个基本问题,具有广泛的研究与应用价值。该文根据算法理论的不同,将目标跟踪算法分成目标表观建模和跟踪策略两部分,又将目标表观建模分成生成式跟踪和判别式跟踪分别进行介绍;从基于均值漂移和滤波理论两方面介绍跟踪策略;并重点介绍了基于深度学习的相关算法,总结了深度学习算法的优缺点。
目标跟踪 表观建模 跟踪策略 深度学习
1 概述
计算机视觉(Computer Vision,CV)是专门研究如何让计算机像人那样能够“看”的学科,是指利用摄像机和电脑代替人眼的作用,使机器能够做到类似人脑那样对目标实现提取、识别、跟踪等功能。
目标跟踪是通过分析视频图片序列,对检测出的各个候选目标区域实施匹配,定位出这些目标在视频序列中的坐标。简单来说,就是在序列图像中为目标进行定位。目标跟踪算法研究是计算机视觉领域的热点,在虚拟现实、人机交互、智能监控、增强现实、机器感知等场景中有着重要的研究与应用价值。
随着科学技术的不断进步,目标跟踪算法也在不停发展进步,尤其随着深度学习(deep learning)的发展,越来越来多的算法从深度学习的角度进行目标跟踪算法的研究,利用深度学习原理提取出的特征具有更好的目标表达效果。目前关于深度学习的目标跟踪算法综述性文章还很少,本文在介绍传统目标跟踪算法的基础上,更多引入深度学习的内容,并总结了深度学习算法的相关优缺点。
目标跟踪算法的分类有很多种,根据不同的标准,算法的分类也不同,表1是比较常见的一些分类方法。
表1 目标跟踪算法分类
本文重点介绍单场景下的单目标跟踪问题。单场景下的目标跟踪问题主要研究对单个目标的连续跟踪,即在单摄像机拍摄的视频序列中只跟踪某一个具体目标[1]。这方面的研究围绕以下两个基本问题展开:第一,目标表观建模,也有人称之为目标匹配问题。它根据目标的表观特征数据来建立相应的表观模型,是算法最重要的模块。表观模型建立的好坏直接影响到跟踪的准确性和鲁棒性效果,常被采用的特征有轮廓、颜色、纹理、特征点、特征子图等。采用单一特征的跟踪常面临跟踪准确性差等问题,故而多采用融合多种特征的表观模型。第二,跟踪策略。在目标跟踪过程中,要是为了寻找最佳位置而直接匹配对场景中的所有内容,这无疑会增加大量冗余信息,从而导致运算量大、速度慢等缺点[2]。而采用一定的运动模型来估计未来时刻目标可能的位置,通过先验知识来缩小搜索范围,无疑会取得有效的效果,代表性方法有隐马尔科夫模型[3]、卡尔曼滤波[4]、均值漂移算法[5]、粒子滤波[6]等。
2 目标表观建模
近几年提出的多数跟踪算法都是基于tracking-by- detection框架,它们将跟踪看作检测问题,根据对目标表观的建模方式,可分为两类:判别式跟踪和生成式跟踪[7]。
2.1 基于生成模型的目标跟踪算法
在目标跟踪中,生成式跟踪算法不考虑背景信息直接为目标进行建模的算法,通过学习建立一个模型来表示目标,然后使用此模型直接与目标类别进行匹配,以达到跟踪目的。Ross等人提出基于增量学习的跟踪方法,用于跟踪刚性物体或类刚体,但其采用的自适应全局表观模型无法应对姿态变化和遮挡[8]。Comaniciu等人将跟踪建模转化为相似函数最大化问题,并用颜色核函数加权直方图描述目标,从而实现高效跟踪,但直方图信息表达有限,不能表达其他类似空间等信息,制约了算法的性能[9]。Kwon等人将运动模型分割成多个小模块,提出视觉跟踪分解(VTD)算法,得到的这些小模块可以更好地捕获目标变化[10]。薛模根等人指出,目标可以用目标模板和琐碎模板综合表示,并基于稀疏理论提出了L1跟踪算法,但该算法运算复杂度较高,且无法处理严重遮挡等[11]。
本文根据模型组成不同,将生成模型分为基于直方图的生成模型、基于核的生成模型、混合生成模型、基于子空间的生成模型。
2.1.1 基于直方图的生成模型
目标跟踪中,常将目标对一些特征表达转换成统计特征(如直方图的形式)来建立相应的跟踪模型。付永会等人利用彩色图像的颜色直方图信息,利用颜色直方图水平和垂直投影信息建立模板,然后在跟踪过程中不断自适应地在线调整跟踪目标模板,从而达到跟踪目的[12]。Frag跟踪系统通过使用局部块的直方图表示对物体的外观进行建模,以解决部分遮挡问题[13]。Dalal提出一种用来进行物体检测的特征描述子梯度方向直方图 (HOG)特征。刘华军等提出基于HOG特征提取方式,并结合在线多实例学习的方法,对目标平移旋转变化、遮挡与半遮挡、远离场景等情况进行跟踪实验,取得很好的效果[14]。
2.1.2 混合高斯模型
由于高斯混合模型能够平滑地逼近任意形状的概率密度分布,近年来常被用于语音识别、图像处理等方面。简单地说,高斯混合模型就是使用多个不同参数的高斯分布进行加权组合来为观测样本建模[15]。
王金洋等人提出使用多种高斯分布的混合高斯模型来近似目标外形的函数,对每个像素点进行混合高斯建模,通过自适应高斯混合模型的分布来评估判断哪些像素点为背景,建立在线混合模型以判断像素点是否为背景模型的一部分[16]。黄苏雨等人提出一种改进的高斯混合模型,使用K个高斯模型来表示图像中各个像素点的特征,获得新的一帧图像后立即用来更新混合高斯模型[17]。然而,仅使用高斯混合模型来判断前景与背景准确度还达不到要求,混合模型经常使用启发式准则或者结合其他的特征来选择正确分量以增强跟踪效果。
2.1.3 基于核的生成模型
核密度估计是一种非参数检验方法,在概率论中用来估计未知的密度函数。在单变量核密度估计的基础上,可以建立风险价值的预测模型,通过对核密度估计变异系数的加权处理,可以建立不同风险价值的预测模型[18]。一般都是从颜色驱动、集成外形、尺度相关、非对称、全局模式搜索、连续核学习的生成模型等方面进行构造核密度或构造估计模型。文献[19]对目标的局部标准差特征结合亮度进行核密度估计,通过均值偏移算法对图像中的细小目标进行跟踪。为了避免直方图的缺点,贾静平等人提出采用多变量的核密度估计来描述目标的特征分布,引入空间尺度理论在连续的空间内准确表达目标的连续形变,有效解决目标定位的尺度变化问题[20]。
2.1.4 基于子空间的生成模型
大多数基于子空间表面模型的目标跟踪算法是在跟踪之前通过训练不同光照和姿势下目标的观测图像,得到一组特征基,并用这组特征基表示不同时刻目标表面变化,一旦训练完成,特征基就保持不变,不能在线更新[21]。孙锐等人利用学习到的PCA正交子空间去除传统的目标模板聚集的冗余性对目标外观进行表示,配合改进基于最小均方误差的观测模型,提出一种基于主成分分析(PCA)子空间学习的跟踪算法,建立了一个效果更准确的观测似然函数,外加一种考虑遮挡的模板更新机制,取得了不错的跟踪效果[22]。陆文等人提出鲁棒的子空间学习算法进行特征空间的增量学习,并结合其他增量学习算法,使用粒子滤波进行跟踪决策,避免了单独设计模块来处理目标受到的遮挡情况,使得跟踪效果更加鲁棒[21]。
2.2 基于判别模型的目标跟踪算法
在目标跟踪中,判别型方法将跟踪问题建模为一个二元分类问题,用以找到区分目标物体和背景的决策边界,最大化地将目标区域与非目标区域分别开来。随着近些年目标特征表达和分类器训练理论的发展,许多优秀的判别式跟踪方法不断涌现[23]。文献[24]将跟踪问题转化为一个二分类问题,判断每个像素是否属于目标,但单像素的表达能力有限,制约了算法相应场景下的性能。为解决跟踪中训练样本的准确性不足问题,文献[25]引入多示例学习机制,有效抑制了跟踪过程中遇到的漂移问题。文献[26]提出了压缩跟踪(CT),用一个稀疏的测量矩阵提取特征,以建立一个稀疏、健壮的目标表观模型,取得了快速、有效、鲁棒的跟踪效果。文献[27]提出了一种抗漂移的long-time跟踪算法,算法提取目标SIFT特征,并进行弱排列,建立了鲁棒的目标/背景分类器,使得跟踪效果更加鲁棒。
判别模型主要有以下几个研究方向:
2.2.1 基于boosting和SVM的判别模型
基于boosting和SVM的判别模型一直被广泛应用于目标跟踪领域,这是由于其强大的判别学习能力能够有效解决最大化类间分离问题。按照算法使用不同的学习策略,可被分为自学习和混合学习两类,自学习模型使用单独的信息来源对目标或非目标进行分类判决,而混合学习模型则采用多来源的判决信息进行目标分类判决[28]。文献[29]针对在线Boosting目标跟踪算法在面对遮挡场景下跟踪时经常发生的漂移问题,采用跟踪得到的置信度高的目标作为正样本来在线训练分类器,提出一种结合分块的在线Boosting目标跟踪算法,大大提高了算法在自然场景的跟踪效果。文献[30]提出一种基于单个SVM和加权Mean Shift结合的目标跟踪算法。使用基于颜色特征的SVM分类器对像素点进行分类,再结合对前景目标和背景特征赋以不同权值的Mean Shift算法,突出前景特征,降低背景噪声对目标模板的干扰,实现了复杂场景下的目标跟踪。
2.2.2 基于随机学习的判别模型
与boosting和SVM相比较,随机学习方法可以构建一个复杂的分类器。随机学习能够实现并行运算,可以同时执行特征选取和随机输入输出,这就意味着随机学习可以使用GPU和多核来加快算法运行速度,节省算法运行时间。文献[31]提出一种基于随机局部均值Hash特征的在线学习跟踪算法,文章利用已知位置的目标来构建初始化的分类器池,利用泊松概率分布建立目标在线更新模型,跟踪过程中利用跟踪结果实时更新训练分类器的正负样本,使得算法在复杂环境下取得不错的跟踪效果。受随机学习的启发,在线随机森林、随机朴素贝叶斯分类器等多种随机模型被提出来,并应用到视觉跟踪中,取得不错的效果。
2.2.3 基于稀疏表示的判别模型
近几年来,稀疏表示取得了很大的发展,大量研究利用稀疏表示提取目标特征来实现对目标的跟踪,并取得了不错的效果。文献[32]利用粒子滤波方法中目标周围的采样粒子具有相似性和依赖性的关系,提出了一个由多个粒子共同构建的协同稀疏模型。文献[33]构造了一个结构化的多任务稀疏学习模型,使得跟踪模型更加健壮,提升了跟踪过程的鲁棒性。文献[34]采用部分匹配进行稀疏表示的方法,构造了一个一致性的低秩稀疏模型,利用粒子采样中粒子之间的固有关系提高了跟踪过程的鲁棒性,较好解决了跟踪过程中遇到的部分遮挡问题[35]。
2.2.4 基于深度学习的判别模型
近几年来,深度学习算法迅速成为研究热点,并在计算机视觉领域取得了良好的应用效果。2006年,加拿大多伦多大学教授Geoffrey Hinton和他的学生Ruslan Salakhutdinov在《科学》杂志上发表了一篇文章,开启了深度学习在学术界和工业界的浪潮。该文有两个主要观点:(1)多隐层的人工神经网络具有优异的特征学习能力,学习得到的特征对数据有更本质的刻画,从而有利于可视化或分类;(2)深度神经网络在训练上的难度,可以通过“逐层初始化”(layer-wise pre-training)来有效克服,逐层初始化是通过无监督学习实现的[36]。
深度学习的概念起源于人工神经网络,主要通过神经网络的原理来模仿人脑,通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示[37]。深度学习与传统的神经网络之间的相同点在于,深度学习采用了神经网络相似的分层结构,系统由包括输入层、隐层(多层)、输出层组成的多层网络,每一层可以看作是一个逻辑回归(Logistic Regression)模型,这是一种很接近人类大脑的分层结构。
图1 深度学习网络
其中卷积神经网络(CNN)由卷积层和全连接层构成,通过共享权重和池化层(pooling layer)来降低参数的数目和提升效果,具有良好地学习图像深层视觉特征的能力。卷积神经网络是一个多层的神经网络,每层由多个二维平面组成,而每个平面由多个独立神经元组成。卷积神经网络的概念如图2所示:输入图像通过和三个可训练的滤波器和可加偏置进行卷积,滤波过程如图1,卷积后在C1层产生三个特征映射图,对特征映射图中每组的四个像素再进行求和,加权值,加偏置,通过一个Sigmoid函数得到三个S2层的特征映射图,这些映射图再进行滤波得到C3层,这个层级结构再和S2一样产生S4[38]。最终,这些像素值被光栅化,并连接成一个向量输入到传统的神经网络,得到输出。
图2 卷积神经网络结构图
一种典型的基于深度学习的目标检测方法包括:对输入图像进行分块操作,提取归一化图像块,再用卷积神经网络对图像块进行卷积操作,提取特征,最后用线性分类器对卷积后的区域块进行分类。Fan等人同样利用大量的辅助图像训练深度卷积神经网络,并将模型应用于行人跟踪中,取得了较好的效果[39]。Zhou等人使用多个神经网络的聚合体进行目标跟踪[40]。然而,这些方法由于缺少大量的跟踪过程中的实际数据,所以效果提升的程度有限。为此,Li等人设计了层次较浅的卷积神经网络,设定了一个特殊的损失函数,并以在线的方式对跟踪过程中产生的样本进行训练。另外还有一些方法试图解决上述两个问题[41]。Hong等人利用卷积神经网络提取特征,并使用在线更新的SVM对跟踪过程中的样本进行分类,将正样本的特征进行反向传播,从而得到正样本对应的显著图,并以此显著图进行判别式跟踪[42]。Wang等人利用离线训练好的卷积神经网络模型提取层次特征,并用以进行在线跟踪[43]。Zhang等人使用目标区域中随机提取的归一化图像块作为卷积神经网络的滤波器,实现了不用训练卷积神经网络的快速特征提取[44]。Kuen等人提出了一种通过强短时限制和栈式卷积自编码器学习到目标表示的不变性[45]。
当前,深度学习的研究目前才刚刚起步,仍有大量工作需要去完成。学界的关注点还是从机器学习的领域借鉴一些可以在深度学习使用的方法,特别是在降维领域。目前一个重点工作就是稀疏编码,通过压缩感知理论对高维数据进行降维,使得以非常少的元素的向量就可以精确代表原来的高维信号。另一项工作就是半监督流行学习,通过测量判断训练样本的相似性,低维空间可以通过这种相似性从高维数据投影得到。
深度学习还有很多核心的问题需要解决,比如对于一个特定的框架,对于多少维的输入它可以表现得较优;如何对于一个给定的深度学习架构,需要融合多少种感知信息;如何去增强一个给定的深度学习架构,以增强算法的鲁棒性和数据的不变性。
3 跟踪策略
跟踪策略的目的是希望所建立的运动模型能够给出在下一帧图像中目标的可能状态,为目标的状态估计提供先验知识,用来在当前帧图像中找到最优的目标位置。
下面主要从基于均值漂移和基于滤波理论分别介绍。
3.1 基于均值漂移的目标跟踪算法
基于均值漂移(mean shift)的目标跟踪算法的思想在于采用目标的颜色直方图作为搜索特征,然后通过不断迭代均值漂移算法更新搜索目标当前的状态。算法在运算速率与实时性上均取得不错的效果,但是容易受到颜色、光照、尺度变换等原因的干扰,导致准确度下降。针对这一缺点,文献[46]提出了连续自适应的mean shift算法——Cam Shift,Cam Shift算法专门对视频图像序列进行操作,并对序列中的每一帧图像都使用mean shift来迭代选择最佳结果,从而保证其可以自适应地不断调整窗口大小进行跟踪。文献[47]对目标模型进行加权处理,在跟踪过程中降低了背景噪声对目标模板的干扰,对跟踪框进行分块处理,并分别调用mean shift进行跟踪,最后加权判断目标的最终位置。
3.2 基于滤波理论的目标跟踪算法
基于滤波理论的目标跟踪算法的主要思想是利用离散的权值粒子集合对目标当前分布状态的可能进行估计描述,其优势在于能够有效融合不同种类的特征信息,如轮廓、颜色、纹理、特征点、特征子图等,具有很好的稳定性[48]。常见的算法有卡尔曼滤波、扩展的卡尔曼滤波及粒子滤波方法等。王炜等人[49]将目标划分为多个区域,通过卡尔曼滤波预测各个跟踪区域的位置,结合灰度直方图匹配与空间上下文关系计算出观测中心,最后再用卡尔曼滤波得出最终的位置,在背景相似于目标遮挡等场景取得不错的跟踪效果。卡尔曼滤波算法多用于线性的、高斯系统,而粒子滤波器特别适用于非线性、非高斯系统。Wang等人[50]使用大量的辅助图像离线训练了一个栈式去噪自编码器,对目标候选进行特征提取,并将这样的特征应用于粒子滤波的框架中,同时,在跟踪过程中更新自编码器,使得跟踪效果更加鲁棒。
4 总结与展望
本文对当前的目标跟踪算法研究成果进行了综述,分别从目标表观建模和跟踪策略对当前流行的算法进行分类,重点综述了目前最流行的基于深度学习的目标跟踪算法,并总结了基于深度学习算法的相关优缺点。目前关于跟踪算法的研究已经持续了很多年,也提出了各种各样的跟踪方法,但是还没有形成一个普适的统一理论框架或体系,而且目标跟踪在实际情况中遇到很多难点,光照、遮挡、尺度、视角、相似物体与背景噪声等问题依然没有得到很好的解决。本文仅仅研究了单场景下单目标跟踪,而单场景下的多目标跟踪问题、多场景下的单目标跟踪问题、多场景下的多目标跟踪问题都是目前研究的热点和难点。
参考文献:
[1] 黄凯奇,陈晓棠,康运锋,等.智能视频监控技术综述[J].计算机学报,2015(6):1093-1118.
[2] 逄博.基于粒子滤波的复杂背景下的目标跟踪方法研究[D].兰州: 兰州理工大学, 2012.
[3] Rabiner L. Atutprial on hidden Markov models and selected applications in seeech recognition[J]. Proceedings of the IEEE,1989,77(2):257-286.
[4] Bar-Shalon Y, Fortmann TE. Tracking and Data Association[M]. New York: Academic Press,1998.
[5] Comaniciu D, Ramesh V, Meer P. Real-time tracking of non-rigid objects using mean-shift[C]//Proceedings of the IEEE Conference Computer Vision and Patter Recogition, 2000:142-149.
[6] Isard M, Blake A. Condensation-conditional density propaga-tion for visual tracking[J]. International Journal of Computer Vision,1998,29(1):5-28.
[7] WU Yi, LIM Jongwoo, YANG M H. Online object tracking: A benchmark[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2013:1354 - 1362.
[8] ROSS D, LIM J, LIN R, et al. Incremental learning forrobust visual tracking[J]. International Journal of Compute Vision, 2008, 77(1): 125 - 141.
[9] COMANICIU D, RAMESH V, MEER P. Kernel-based object tracking[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2003, 25(2): 564-577.
[10] KWON J, LEE K M. Visual tracking decomposition[C]//IEEE Conference on Computer Vision and Pattern Recognition, 2014: 1269 - 1276.
[11] 薛模根, 朱虹, 袁广林. 基于在线判别式字典学习的鲁棒视觉跟踪[J].电子与信息学报 , 2015, 37(7): 1654 - 1659.
[12] 付永会,张风超,张宪民.一种改进的基于颜色直方图的实时目标跟踪算法 [J]. 数据采集与处理, 2001, 16(3):309-314.
[13] 余旺盛,田孝华,侯志强,查宇飞.基于局部分块学习的在线视觉跟踪 [J]. 电子学报, 2015(1):74-78.
[14] 刘华军,王玉坤.基于HOG及在线多实例学习的目标跟踪算法 [J]. 现代电子技术, 2013, 36(9):116-120.
[15] 王杰雄,齐向阳.基于高斯混合模型的NSCT变换遥感图像融合[J]. 科学技术与工程, 2009, 9(14):4057-4062.
[16] 王金洋,余红英,樊永生.基于混合高斯模型的运动目标跟踪算法 [J]. 中国科技信息, 2015(2):77-77.
[17] 黄苏雨,熊建强,陈红,胡平芳.改进混合高斯模型的运动目标检测与跟踪算法 [J]. 计算机测量与控制, 2015, 23(3):861-863.
[18] 申刚,袁伟.MATLAB统计工具箱在教学成绩分析中的应用[C]//亚太信息网络与数字内容安全会议, 2011.
[19] A Yilmaz,K Shafique,M Shah. Target tracking in airborne forward looking infrared imagery [J]. Image & Vision Computing, 2003, 21(7):623-635.
[20] 贾静平,张飞舟,柴艳妹.基于核密度估计尺度空间的目标跟踪算法 [J]. 清华大学学报(自然科学版), 2009(4):595-598.
[21] 陆文,蔡敬菊.基于鲁棒子空间学习的粒子滤波跟踪算法 [J]. 计算机应用研究, 2011, 28(9):3579-3584.
[22] 孙锐,黄静茹,丁文秀.一种基于子空间学习的实时目标跟踪算法 [J]. 光电工程, 2015(2):52-58.
[23] 陈思,苏松志,李绍滋.基于在线半监督 boosting 的协同训练目标跟踪算法 [J].电子与信息学报,2014, 36(4): 888-895.
[24] AVIDAN S. Ensemble tracking[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2005: 494-501.
[25] BABENKO B, BELONGIE S, and YANG M H. Visualtracking with online multiple instance learning[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2009: 1003-1010.
[26] ZHANG KH, ZHANG L, YANG M H. Fastcompressive tracking[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2014, 36(10): 2002 - 2015.
[27] FEDERICO P, BIMBO A D. Object tracking byoversampling local features[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2014, 36(12):2538 - 2551.
[28] 沈忱.视频监控中的预处理、目标检测和跟踪方法研究 [D]. 南京: 南京邮电大学, 2014.
[29] 沈丁成.基于在线Boosting算法的目标跟踪研究 [D]. 天津: 天津理工大学, 2012.
[30] 徐俊格. 基于SVM的目标跟踪算法研究[D]. 南宁: 广西民族大学, 2011.
[31] 吴盈,刘哲,陈恳,吉培培.基于随机局部均值Hash特征的在线学习目标跟踪 [J]. 计算机工程与应用, 2016(4).
[32] Zhang T, Ghanem B, Liu S, et al. Robust visual tracking via multi-tasksparse learning[C]//Proceedings of the 2012 IEEE Conference onComputer Vision and Pattern Recognition, 2012:2042-2049.
[33] Zhang T, Ghanem B, Liu S, et al. Robust visual tracking via structured multi-task sparse learning[J].International Journal of Computer Vision,2013, 101 (2): 367-383.
[34] Zhang T, Liu S, Ahuja N, et al. Robust visual tracking via consistent low-rank sparse learning[J]. International Journal of Computer Vision, 2014, 111 (2): 171-190.
[35] 高君宇,杨小汕,张天柱, 等. 基于深度学习的鲁棒性视觉跟踪方法 [J].计算机学报,2016, 39(7): 1419-1434.
[36] 余凯,贾磊,陈雨强,徐伟.深度学习的昨天、今天和明天 [J]. 计算机研究与发展, 2013, 50(9):1799-1804.
[37] 高常鑫,桑农.基于深度学习的高分辨率遥感影像目标检测 [J]. 测绘通报, 2014(S1):108-111.
[38] 张恒亨.基于传统方法和深度学习的图像精细分类研究 [D]. 合肥: 合肥工业大学, 2014.
[39] Fan J, Xu W, Wu Y, et al. Human tracking using convolutional neural networks[J]. IEEE Transactions on Neural Networks, 2010, 21 (10): 1610-1623.
[40] Zhou X, Xie L, Zhang P, et al. An ensemble of deep neural networks for object tracking[J]. IEEE International Conference on Image Processing, 2014: 843-847.
[41] Li H, Li Y, Porikli F. DeepTrack: Learning Discriminative Feature Representations Online for Robust Visual Tracking[J]. IEEE Transactions on Image Processing, 2015, 25(4).
[42] Hong S, You T, Kwak S, et al. Online Tracking by Learning iscriminative Saliency Map with Convolutional Neural Network[EB/OL]. http://arxiv. org/pdf/1502.06796.pdf
[43] Wang N, Li S, Gupta A, et al. Transferring Rich Feature Hierarchies for Robust Visual Tracking[EB/OL]. http://arxiv.org/pdf/1501.04587.pdf
[44] Zhang K, Liu Q, Wu Y, et al. Robust Tracking via Convolutional Networks without Learning[EB/OL]. http://arxiv. org/pdf/1501.04505.pdf
[45] Kuen J, Lim KM, Lee CP. Self-taught learning of a deep invariant representation for visual tracking via temporal slowness principle[J]. Pattern Recognition, 2015, 48(10): 2964-2982.
[46] 薛桐.基于CamShift的运动目标跟踪算法研究 [D]. 沈阳: 沈阳理工大学, 2015
[47] 王田,刘伟宁,韩广良,杜超,刘恋.基于改进Mean Shift的目标跟踪算法 [J]. 液晶与显示, 2012, 27(3):396-400.
[48] 钟华民.基于特征描述和色彩模型的目标跟踪算法研究[D]. 上海: 上海交通大学, 2014.
[49] 王炜,郭毓,俞信.基于卡尔曼滤波的多区域关联运动目标跟踪 [J]. 计算机应用, 2012, 32(11):3174-3177.
[50] Wang N, Yeung D-Y. Learning a deep compact image representation forvisual tracking[J]. Advances in Neural Information Processing Systems, 2013: 809-817.
华侨大学研究生科研创新能力培育计划资助项目。