基于激光与CCD的机器人运动目标定位方法研究
2017-09-05胡成龙王金祥
胡成龙+王金祥
摘 要:本文利用多传感器信息融合方法定位运动目标。首先,分别对CCD摄像头和激光测距仪获取到的数据信息进行采集,对采集到的实时数据进行去噪,获取运动目标位置区域信息。接着,利用颜色特征提取算法提取运动目标的颜色特征,精准识别并定位目标。最后通过实验验证,本文提出的基于多传感器的运动目标检测算法与颜色特征提取算法相结合的算法能够实时可靠地检测并定位运动目标。
关键词:移动机器人;激光测距;CCD传感器;运动目标定位
DOI:10.16640/j.cnki.37-1222/t.2017.16.135
目标定位是机器人领域的一个重要研究方向,主要是指从一组包含有运动物体的视频图像或数据信息中检测出运动目标。运动目标的精准定位是移动机器人自主完成各种复杂任务的前提,目标定位的实时性和准确性越高,后续的跟踪与避障工作就越容易进行。
1 研究的现状及意义
运动目标的定位是移动机器人的一个主要工作领域,在目标检测中视频图像起着不容忽视的作用,但是仅仅依靠单一的传感器获取的数据信息无法精准地进行目标检测,因此越来越多的研究人员致力于多传感器的目标定位研究。从国内外研究的现状可知,多传感器的信息融合技术已经广泛应用在了机器人目标定位与跟踪的研究之中。激光测距传感器在距离感知方面有着得天独厚的优势,能作为视觉传感器很好的补充;而CCD摄像头也能够利用自身的优势弥补激光传感器的不足之处。通过这两种传感器融合,单传感器目标检测的弊病可以得到有效地解决,从而使得移动机器人目标定位的准确性得以提高。
2 运动目标检测方法
采用单个传感器虽然可以大致检测出目标的运动区域,但难以保证目标定位的实时性与准确性,因此运用多个传感器信息融合的方法进行目标定位。驱动CCD摄像头,使其捕获实验环境中的图像,接着对视频图像的相邻帧采用帧差法处理获得运动目标的轮廓信息,再采用背景减法获得运动目标较为精确的目标区域,最后用带颜色的矩形边框框出目标的运动区域。
本文的实验平台采用的是智能轮式机器人,该机器人上的激光测距传感器可以感知到的角度信息是其前方0到180度范围内的环境,实验中将激光采集到的数据存放在数组中,并在该数组中设置181个元素。实验过程中采用了均值滤波的去噪方法来减少噪声,然后对去噪后的距离信息进行处理。
将距离信息与运动图像信息通过图像标定的方法融合在一起。方法是在与激光测距仪等高的位置上放置一个颜色容易识别的物体,通过移动此物体到不同距离来监测该物体在视频图像中对应像素点的高度变化,记录监测到的距离与图像高度信息表,后面就可以利用这个表融合数据了,采用双传感器定位同一目标就更加准确,通过多传感器融合算法将目标定位。
3 目标颜色特征提取方法
由于机器人运动时,用帧差法定位会使结果的准确性大大降低,且十分耗时。为解决这一问题本实验采用了目标颜色特征提取算法来准确定位运动目标。在利用多传感器进行颜色特征提取的过程中,首先对每个传感器获取的目标信息进行融合处理,检测出最能代表目标的特征颜色,确定运动目标的颜色采样点,再根据这一颜色特征提取运动目标。
在目标区域内激光传感器的距离与方位信息定位运动目标的采样点。在实验中,视频窗口动态地进行目标颜色采样,并根据距离对照表等相关信息实时地调整采集窗口。最后,窗口中与交汇点颜色相近且数量最多的像素点集即为目标颜色采样点集。选择好目标的采样点集之后,最关键的一步是选择种子颜色,通过连续多次检测相似信息为基础提取颜色特征,将此位置适当放大再取平均值得出最终选择出来的种子颜色。由于本实验中采用的特征提取算法逻辑严密,因此每次提取出来的能够代表运动目标的特征颜色十分准确,这非常有利于机器人的目标定位与跟踪。另外,现实的实验环境并非理想状态,例如光线的变化就可能导致目标物静止状态下的颜色变化,因此在算法中当颜色偏差较大时需要对种子颜色进行及时地更新。
4 实验結果与分析
目标检测实验采用目标距离直接标定的方法将视觉和激光传感器获取的距离数据进行融合统一。确定目标颜色采样点及运动目标的大致区域如下图4-1所示,图中红色边框内部部分为运动目标区域,绿色的短横线是激光传感器感知到的目标数据在图像中的显示,两个传感器融合处理后获得的目标信息十分精确。
颜色特征提取时,图4-2中矩形边框内部的横竖线分别表示目标颜色采样点的采样行和采样列,两条线的交点处即采样点所在的采样区域。获取到采样点集后,利用颜色特征提取算法就可以计算出运动目标的颜色特征了,进而定位运动目标。实验表明,本文方法能有效地检测出运动目标,提取目标特征,当目标运动时机器人也能有效跟踪。
作者简介:胡成龙(1996-),男,山东滕州人,本科。endprint