融合尺度空间的智能机器人自适应跟随仿真
2022-01-22韩菊,曹峰
韩 菊,曹 峰
(1.太原学院计算机科学与技术系,山西 太原 030012;2.山西大学计算机与信息技术学院,山西 太原 030001)
1 引言
由于目标跟随技术能够完成特殊场景中的自主动作,被大量应用于制导、安防和机器人等领域[1]。依托各类传感器对环境和目标的感知,利用特征提取分析等技术完成目标检测。随着视频图像软硬件技术的发展,大部分目标采用视频跟随方式[2]。但是,跟随过程存在动静态混合过程,会引起视频图像的清晰度、光照度和尺度变换。另外,长期的目标遮挡也会给目标识别带来误差干扰。为了能够找到一种兼具精度、速度,以及抗扰性的跟随算法,研究人员已经做了很多工作,也取得了一些成果。早期较为著名的跟随方法包括MeanShift、SVM、TLD和KCF等[3]。它们推动了目标跟随在实际中的应用,同时也推动了各种改进方法的出现。文献[4]针对跟随过程中发生的部分遮挡情况,采用计算K均值的方法来分辨目标与背景。文献[5]在TLD基础上引入了尺度变换处理,并采用置信度评价学习粒子。文献[6]在KCF基础上,通过对目标采取HOG与LBP特征提取,改善跟随过程中的遮挡问题。文献[7]依据超像素处理来实现位置与尺度两个方面的特征跟随。文献[8]根据卷积计算来确定KCF响应和尺度信息。这些改进方法都在传统方法的基础上做了某些性能提升,考虑到机器人目标跟随应用场景,以及跟随算法的适应性,结合现有研究成果,本文提出了融合尺度空间的自适应目标跟随方法。
本文方法融合尺度空间,构建包含位置估计与尺度空间估计目标模型,利用位置估计实现快速检测,利用尺度估计适应尺度变换,同时对位置和尺度参数的计算进行优化。由于位置与尺度模型无法有效处理长时间的目标丢失,所以又针对非规则模糊图像和遮挡情况分别设计了目标与背景分类器,从而提高跟随算法的环境自适应性。
2 融合尺度空间的机器人跟随模型
2.1 目标位置确定
考虑到目标位置估算的速度问题,采取高斯核对空间特征进行映射。通过低维向高维的转换实现特征可分性。利用目标附近的a×b图像区域,确定学习粒子xi及其标签yi,这里i∈{0,…,a-1}×{0,…,b-1}。目标位置映射对应的代价约束描述为
(1)
引入学习粒子的核矩阵,可以得到分类器表达式为
ε=(H+αI)-1Y
(2)
其中,I代表单位矩阵;H代表学习粒子的核矩阵,hij=h(xi,xj)=〈m(xi),m(xj)〉;Y代表由yi构成的矩阵。求解出的结果代入线性组合公式,确定正则后的滤波响应如下
f(k)=F-1{F(ε)F[mT(x),m(k)]}
(3)
其中,k代表备用学习粒子;F-1代表傅里叶反变换;m(x)代表学习粒子特征向量;m(k)代表备用学习粒子特征向量。通过求解f(k)的最大值,能够得到当前帧的目标位置。
在计算学习粒子线性组合的时候,需要收集不同时间段内的学习粒子。假定将不同时间段内学习粒子的平均误差标记为Δxi,…,Δxt,利用最小二乘便可以计算出所需滤波器数量。考虑到位置确定应该具有较好的鲁棒性,同时为了简化处理过程,本文采取DFT变换求解滤波器参数
(4)
(5)
其中,Yc代表DFT处理后的标签变量;β代表加权因子,用于防止滤波器出现拟合过度的情况。
2.2 目标尺度确定
采用高斯函数与卷积计算对学习粒子进行特征尺度映射,相应的尺度映射代价约束描述为
(6)
其中,fi代表尺度滤波器;xi代表时间序列的学习粒子;ei代表xi的期望高斯输出;*代表卷积计算。基于复频域,利用Parseval定理对代价约束进行处理,求解出尺度滤波器参数如下
(7)
(8)
基于尺度滤波器,备用学习粒子k的响应可以表示为
(9)
3 自适应跟随检测
融合尺度空间的跟随方法可以根据学习粒子完成目标的快速跟随。同时由于约束条件的边界性,能够很好的保证目标跟随的鲁棒性。尽管融合尺度空间优化了基于位置跟随的鲁棒性,可是其过程中仍然会形成过多的学习矩形区域,从而影响算法处理性能。为增强目标与背景的识别精度,本文首先采用尺度扫描来获得矩形区域,目标粒子尺度选择方式描述如下
(10)
其中,μ代表尺度系数;m代表尺度扫描的区域数量;M代表尺度层数。通过尺度选择,能够得到m数量的矩形区域,再将区域内的目标特征进行分类。分类器公式描述如下
(11)
fi代表矩形区域i;二值参数x∈{0,1}用于描述正负粒子的标签。考虑到目标的非规则性,为了消除矩形边缘与内部的相互影响,将矩形区域采取g×g均分,并为每个子区域赋予权重
(12)
(o0,x,o0,y)和(oi,x,oi,y)分别代表矩形区域和子区域i对应中心位置。引入权重后的分类器表达式更新为
(13)
G代表g×g均分后子区域数量;fji代表子区域j中的i特征值。此时,由于权重的不同,边缘特征将会获得相对小的分数,进而降低目标边缘受背景的影响,更加准确的分辨出目标和背景。
机器人对目标进行跟随的过程中,可能会出现目标被遮挡的情况。如果目标被完全遮挡,则目标消失很容易导致跟随失败。如果目标被部分遮挡,随着时间流逝很容易使跟随误差增加,进而导致跟随失败。因此,要完成机器人的自适应跟随,就需要对目标遮挡采取有效的处理。根据遮挡造成的影响程度,这里将其划分成轻重两级。对于隶属轻级别的情况,维持跟随状态与模型的更新。对于隶属重级别的情况,需要立即采取重检,且无需进行模型更新。在轻重级别划分时,直接依据模型的最大响应来确定划分阈值可能会导致误差不可控。当出现累计误差时,跟随模型可能已经发生偏移,此时得到的阈值将失去有效性。于是,这里综合响应峰值与响应波动进行衡量,描述如下
(14)
其中,Fmax为模型最大响应;Fmin为模型最小响应;ave(·)为均值求解。通过λ值的计算,有利于体现图像区域内各点响应相对峰值的情况。在目标存在遮挡或者消失的时候,将引起较大的波动效果,λ受到影响而显著降低。所以利用λ便可以有效判断出目标是否受到遮挡。当出现遮挡,为了能够维持较好的跟随性能,这里通过对目标和背景的分布状态进行区分。此过程可以看做是学习粒子的特征至分类的映射。基于属性描述的学习粒子为Xn=(fn,sn),n∈[1,a×b],f为粒子特征集合;s为粒子分类集合;映射过程描述为f→s。利用SNB对学习粒子进行分类处理。通过随机方式选取f内的i组子集,其间需要满足子集大小一致的限定条件,任意子集可以描述如下
fi={fi,1,fi,2,…,fi,j}
(15)
其中,j表示子集内的特征数量。如果所有子集内的属性均满足相互独立,则f的似然估计可以描述如下
(16)
其中,nf、ns依次表示特征总数量和分类总数量。根据似然估计,推导得出分类器如下
(17)
通过分类器处理,便可以更好的完成遮挡情况下的目标和背景分类。
4 实验与结果分析
4.1 实验环境
实验基于OTB视频集来模拟机器人对目标的跟随效果,OTB中包含11类变换属性,能够模拟较为复杂的应用场景。实验平台选择Intel(R)Core(TM)i5-8250U,频率1.8GHz,内存8GB。采用MatlabR2014仿真软件验证跟随算法的性能。实验过程中,设置正则系数α=0.01,学习率u=v=0.075,尺度系数μ=1.13,尺度层数M=28。
4.2 评估指标
为了对跟随性能进行定量分析,通过距离精度来衡量跟随精确度。该指标能够反映目标位置的误差,其公式描述如下
(18)
其中,N代表测试视频包含的总帧数;Nframe代表跟随误差符合约束条件的帧数。对于每一帧视频,采用距离来判定位置误差,其计算公式描述如下
(19)
其中,(x',y')代表跟随估计的目标位置;(x,y)代表标记的目标位置。
通过成功率指标进一步衡量跟随效果,该指标能够反映目标的重叠率,其公式描述如下
(20)
其中,N代表测试视频包含的总帧数;Noverlap代表跟随过程中重叠率符合约束条件的帧数。关于重叠率,公式描述如下
(21)
其中,A′代表跟随估计的目标区域;A代表标记的目标区域。
基于评估指标,选择文献[7]和文献[8]的跟随方法作为实验对比,进而验证所提方法的性能优势。
4.3 定量结果分析
从OTB数据集中随机选取10个视频序列,通过调节误差门限,得到各跟随方法的距离精度变化情况,结果如图1所示。由曲线可知,误差门限的合理设定,将直接影响测试的距离精度。如果门限设置过小,会导致一些正常跟随被误判;如果门限设置过大,又会导致一些非正常跟随被覆盖。门限的不合理设置,均会对精度产生影响。另外,经过曲线对比能够发现,在距离精度达到稳定后,本文方法具有明显优势。
针对选取的10个视频序列,通过调节重叠门限,得到各跟随方法的成功率变化情况,结果如图2所示。由曲线可知,重叠门限的合理选取直接影响成功率大小,同时也能够得到在任意重叠门限情况下,本文方法的成功率都高于其它方法。
图2 成功率随重叠门限的变化
从OTB数据集中随机选取10个视频序列,根据距离精度结果设置误差门限为15,测试得到各跟随方法的距离精度,结果如表1所示。由测试数据可知,文献[7]方法的平均距离精度为73.17%,文献[8]方法的平均距离精度为77.46%,本文所提方法的平均距离精度为86.51%。在测试选取的10个视频序列中,本文方法的距离精度均高于其它方法,且平均精度分别高于文献[7]和文献[8]方法13.34%、9.05%。
表1 距离精度
针对选取的10个视频序列,根据成功率结果设置误差门限为0.45,测试得到各跟随方法的成功率,结果如表2所示。由测试数据可知,文献[7]方法的平均成功率为77.66%,文献[8]方法的平均成功率为79.46%,本文所提方法的平均成功率为88.76%,本文方法的平均成功率分别高于文献[7]和文献[8]方法的11.10%、9.30%。
表2 成功率
通过10个视频序列测试得到各方法的平均运行速度,结果如表3所示。比较发现,虽然本文方法的运行速度较文献[7]方法慢了一点,但是仍然满足目标跟随的实时性要求,具有良好的跟随速度。
表3 运行速度
5 结束语
为了提高智能机器人跟随效果,本文采用目标位置融合尺度空间的方法构建跟随模型,针对目标和背景的区分设计了目标区域特征分类与权重分类器,针对目标遮挡设计了基于波动的似然估计分类器。通过OTB数据集对机器人跟随效果进行模拟仿真,得到所提方法的平均距离精度为86.51%,平均成功率为88.76%。表明融合尺度空间自适应跟随方法鲁棒性好,显著提升了尺度变换与遮挡等复杂场景下的精度与速度。