APP下载

基于全景视觉机器人定位的路标提取方法*

2016-10-19崔宝侠栾婷婷

沈阳工业大学学报 2016年5期
关键词:路标移动机器人全景

崔宝侠, 张 驰, 栾婷婷, 段 勇

(沈阳工业大学 信息科学与工程学院, 沈阳 110870)



基于全景视觉机器人定位的路标提取方法*

崔宝侠, 张驰, 栾婷婷, 段勇

(沈阳工业大学 信息科学与工程学院, 沈阳 110870)

针对全景图像像素点过多、图像复杂导致单一图像分割算法难以提取出图像中人工路标的问题,提出了一种用HSV阈值分割法与OTSU最大类间方差法相结合的算法.通过对两种算法的结合使用,可以更有效地滤除图像中的干扰区域及干扰点,从而将路标从图像中提取出来.利用三角定位法的相交圆法计算出移动机器人的坐标,完成对移动机器人的定位.结果表明,该方法能够提取出全景图像中的路标,有效地避免了错误提取的情况,具有一定的可行性.

全景视觉; 室内环境; 移动机器人; 全景图像; HSV阈值分割; 人工路标; 可行性; 三角定位

目前移动机器人在各个领域广泛应用,如足球比赛机器人、探测机器人及服务机器人等[1],移动机器人导航技术是衡量其智能水平的关键因素.机器人在未知环境中进行一系列的避障、路径规划等导航行为时,定位问题最为关键,因此,机器人自定位是移动机器人实现导航、运动规划等自主能力的基础[2],也是评价机器人性能的关键指标之一[3].近年来,室内定位技术作为导航定位技术的重要组成部分,其研究受到了关注[4].在室内移动机器人的定位中,根据采用传感器的不同有多种不同的定位方法,本文研究的是基于全景视觉传感器的移动机器人定位.

全景视觉传感器由一个曲面反射镜和一个摄像机构成,如图1所示.与传统的单、双目摄像机相比,全景视觉传感器能够提供更广阔的视野范围,使其在面积较大的室内环境中采集路标时稳定而高效.但是该传感器也存在一定的缺陷:一方面是由于曲面反射镜的作用,全景图像中的物体会发生畸变,这导致图像中的尺度扭曲,距离信息不再与实际成正比例关系,使得在实际应用时全景图像往往需要先进行展开操作,这会带来一定的误差,也会增加算法的运算时间;另一方面是由于全景图像大,像素点多(本文图像像素为2 048×1 536),导致路标在图像中占据的面积很小,增加了全景图像路标提取的难度.南开大学的贺峰等[5]利用基于链表的数字图像滤波算法完成了全景视觉下路标的识别匹配,并利用三角定位算法完成了移动机器人的定位,该方法较为简单灵活,但是受环境的影响较大,定位成功率不高;剑桥大学Thrun等[6]采用了基于概率的Bayes滤波框架方法,但是该算法相对复杂,并且通常受到假设条件的限制,难以找到最优值.本文提出一种基于HSV阈值分割与OTSU(最大类间方差法)相结合的算法提取人工路标,并完成定位计算.

图1 全景视觉传感器Fig.1 Omni-vision sensor

1 图像分割与路标提取算法

图像分割是利用图像统计特征和视觉特征将一幅图像分解为具有相同性质的区域,并从中提取感兴趣目标的过程[7].在对全景图像进行路标提取时,由于图像面积大,路标在图像中占据的比重小,故无法通过灰度直方图方法将路标直接提取出来;而由于图像的像素点多,在用颜色分割法进行图像分割时会伴有大量的干扰点,这些干扰点可能会聚拢形成干扰区域,导致颜色分割法也无法成功提取路标.

本文采取方法是:先用HSV阈值分割法分割出带有路标、干扰点及干扰区域的图像,再用OTSU法进行图像分割,分解干扰区域.整个图像分割与路标提取的流程图如图2所示.

图2 图像分割与路标提取流程图Fig.2 Flow chart of image segmentation and extraction of landmarks

1.1颜色模型变换

摄像机拍摄的图片是RGB模型,但一般不能直接使用RGB模型进行图像处理,主要原因是模型受光线强弱影响大,不利于特征颜色的提取[5];另外RGB模型不符合人的视觉特征,进行阈值化处理多有不便,故本文将RGB模型转换为HSV模型,在HSV空间中对图像进行阈值分割.

1.2HSV阈值分割

HSV颜色模型是将颜色分成H(色度)、S(饱和度)及V(亮度)来表示,其中色度代表颜色信息,饱和度代表颜色深浅程度,它们独立于亮度信息V,这是HSV模型的一个突出优点[8].由于全景图像拍摄面积很大,图像中不可避免会有一些地面反光和阴影区域,可以通过为HSV模型的S和V通道设定阈值来去除反光和阴影,阈值表达式为

V(i,j)=0,S(i,j)<0.2

(1)

V(i,j)=0,V(i,j)<0.2

(2)

式中,(i,j)为图像中的像素点.S越小,代表颜色越浅,越接近白色,而本文中路标选取的颜色鲜明,S值较大,因此可以对S设定阈值将路标与地面反光区分开;同理,V值越小,颜色亮度越低,越接近黑色,而路标的反光能力较强,可以对V设定阈值将路标与地面阴影区分开.将满足上式的像素点亮度值赋为零,此像素点变为黑色,成为背景部分.

不同的H值能够区分不同的颜色,但是在光照变化的情况下,物体的色度可能会随之发生偏移,因此阈值H的设定范围不能过于精确,否则可能会出现光照变化导致路标检测不到的情况发生.本文首先研究绿色路标的提取,为H设定阈值以排除非绿色的区域,阈值表达式为

V(i,j)=0,H(i,j)<90°

(3)

V(i,j)=0,H(i,j)>150°

(4)

标准情况下,绿色的H值为120°,保留图像中H值为90°~150°的像素点,阈值设定较为宽泛,能够保证在光线变化时,绿色路标依然被检测到.

图3a是采集的全景图像,图3b是经过HSV阈值分割后的图像.由图3可见,经过HSV阈值分割后,图像中只剩下绿色的路标,还有一些干扰点和由干扰点构成的干扰区域.

1.3OTSU自动阈值分割

经过HSV阈值分割以后,图像中除了路标以外还会存在干扰点甚至干扰区域,仅使用HSV阈值分割无法提取出路标,还需要一种算法将路标与干扰区域分离开.路标是一个完整的物体,它的像素灰度值基本一致,而干扰区域并不是一个完整的物体,其不同像素之间的灰度值可能会有很大差异,因此可以利用OTSU算法将干扰区域分解.

OTSU法又叫大津法或最大类间方差法,在图像分割研究领域中被认为是最经典的算法[9].算法中阈值把图像分为目标与背景两类,通过判断类间方差值是否为最大值来决定该阈值是否为最优阈值[10],两部分的方差越大,说明目标和背景之间差别越大,分离性越好.本文采用这种算法寻找使图像类间方差最大的灰度值,对图像进行二值化分割,能够去除大量的干扰像素点.

(5)

第i级出现的概率为

(6)

选取一个分割阈值k将图像中所有像素分为C0(目标类)和C1(背景类)两类.其中C0类的像素灰度级是1~k,C1类的像素灰度级是(k+1)~(L-1).图像的平均灰度级为

(7)

目标类C0的均值为

(8)

背景类C1的均值为

(9)

目标类C0、背景类C1的概率分别为

(10)

(11)

类间方差的定义为

(12)

图4 k与的变化曲线Fig.

图5 图像的OTSU阈值分割结果Fig.5 OTSU threshold segmentation results of image

此次分割将图像中像素值不为零的像素点由25 400个减少到10 200个,进行OTSU阈值分割后,图像中除路标外已经没有其他大块连通区域,去除之后就可以得到只有路标是明亮区域的图像,完成了路标的提取.用同样的流程将图像中其他颜色的路标分别提取出来,提取结果如图6所示.

2 三角定位法计算机器人坐标

本文采用了三角定位法的相交圆法进行定位,已知两个路标的绝对坐标A(x1,y1),B(x2,y2)以及机器人到两个路标点连线的夹角α,则可根据同弧所对圆周角相等原理,确定唯一的一个圆,并求出其圆心、半径.当图像中路标个数为N且N≥3时,则可确定N(N-1)/2个圆,任取其中的两个进行方程联立,则求出的解一个是已知路标的坐标,另一个就是移动机器人的坐标.在实际工程应用中,应尽量减小测角误差来提高定位精度,一般来说,路标均匀分布在机器人的周围时,定位精度相对较高[11].

图6 提取各种颜色的路标Fig.6 Landmarks for extraction of various colors

本实验定义黄色路标中心点P1坐标为(0 cm,0 cm),红色路标中心点P2为(60 cm,240 cm),橙色路标中心点P3为(360 cm,120 cm),移动机器人中心点O的实际位置坐标为(160 cm,120 cm).据此计算出P1、P2与O的实际夹角α1=∠P1OP2=87°,P2、P3与O的实际夹角α2=∠P2OP3=129.8°.

3 结 论

本文使用全景视觉传感器采集机器人周围的图像,对于面积很大、像素点很多的图像,采用了HSV阈值分割与OTSU阈值分割相结合的图像分割方法,成功提取出图像中的各种颜色路标.利用三角定位算法的相交圆法求出机器人坐标,完成了定位.该方法有效解决了全景图像像素点过多导致路标难以提取的问题,而且避免了全景图像展开带来的误差和算法复杂度,提高了定位精度.

[1]李海,陈启军.基于全景视觉的移动机器人地图创建与定位 [J].控制与决策,2014,29(2):215-220.

(LI Hai,CHEN Qi-jun.Mobile robot map building and localization based on omni-vision [J].Control and Decision,2014,29(2):215-220.)

[2]黄锦添,崔怀林.基于摄像机的机器人视觉定位的研究 [J].广东技术师范学院学报,2014,36(3):69-72.

(HUANG Jin-tian,CUI Huai-lin.A novel scheme for camera-based vision positioning of robots [J].Journal of Guangdong Polytechnic Normal University,2014,36(3):69-72.)

[3]张本法,孟祥萍,岳华.移动机器人定位方法概述 [J].山东工业技术,2014(22):250.

(ZHANG Ben-fa,MENG Xiang-ping,YUE Hua.Outline of mobile robot localization methods [J].Shandong Industrial Technology,2014(22):250.)

[4]张凯渊,刘佩林,钱久超,等.多传感器融合机器人室内定位系统设计与实现 [J].信息技术,2014(11):83-87.

(ZHANG Kai-yuan,LIU Pei-lin,QIAN Jiu-chao,et al.Design and implementation of multi-sensor fused robot indoor localization system [J].Information Technology,2014(11):83-87.)

[5]贺峰,方勇纯,肖潇,等.移动机器人全景视觉定位系统设计与实现 [C]//第25届中国控制会议.中国,哈尔滨,2005:1627-1632.

(HE Feng,FANG Yong-chun,XIAO Xiao,et al.Designed implementation of panoramic vision-based localization system for mobile robots [C]//25th Chinese Control Conference.Harbin,China,2005:1627-1632.)

[6]Thrun S,Burgard W,Fox D.Probabilistic robotics [M].Cambridge:MIT Press,2005.

[7]巩新文,孟昭鹏,王翠萍.基于Otsu算法的中药贴剂均匀度分析研究 [J].计算机应用研究,2012,29(1):359-362.

(GONG Xin-wen,MENG Zhao-peng,WANG Cui-ping.Analysis of patch uniformity based on Otsu’s method [J].Application Research of Computers,2012,29(1):359-362.)

[8]陈向东,李平.基于色彩特征的CAMSHIFT视频图像汽车流量检测 [J].沈阳工业大学学报,2015,37(2):183-188.

(CHEN Xiang-dong,LI Ping.Vehicle flow detection with CAMSHIFT video images based on color feature [J].Journal of Shenyang University of Technology,2015,37(2):183-188.)

[9]覃晓,元昌安,邓育林,等.一种改进的Otsu图像分割法 [J].山西大学学报,2013,36(4):530-534.

(QIN Xiao,YUAN Chang-an,DENG Yu-lin,et al.An improved method of Otsu image segmentation [J].Journal of Shanxi University,2013,36(4):530-534.)

[10]陈晓丹,李思明.图像分割研究进展 [J].现代计算机,2013(11):33-36.

(CHEN Xiao-dan,LI Si-ming.Research on progress in image segmentation [J].Modern Computer,2013(11):33-36.)

[11]张祥德,牛纪祥,董再励.自主移动机器人三角定位的路标优化 [J].东北大学学报(自然科学版),2004,25(1):24-27.

(ZHANG Xiang-de,NIU Ji-xiang,DONG Zai-li.Landmarks optimization of triangulation of autonomous mobile robot [J].Journal of Northeastern University(Natural Science),2004,25(1):24-27.)

(责任编辑:景勇英文审校:尹淑英)

Landmark extraction method based on omni-vision robot positioning

CUI Bao-xia, ZHANG Chi, LUAN Ting-ting, DUAN Yong

(School of Information Science and Engineering, Shenyang University of Technology, Shenyang 110870, China)

In order to solve the problem that the single image segmentation method can hardly extract the artificial landmarks in the image due to the fact that the pixel points are abundant and the image is complicated in panoramic image, a method in combination with both HSV threshold segmentation method and OTSU method was proposed. Through the combination use of two methods, the disturbance areas and disturbance points in the image could be effectively eliminated, and the landmarks could be extracted from the image. In addition, the coordinate of mobile robot could be calculated with the intersecting circle method of triangulation positioning method, and the positioning of mobile robot was completed. The results show that the method can extract the landmarks in the panoramic image, effectively avoid the situation of error extraction, and show certain feasibility.

omni-vision; indoor environment; mobile robot; panoramic image; HSV threshold segmentation; artificial landmark; feasibility; triangulation positioning

2015-09-14.

国家自然科学基金资助项目(60695054).

崔宝侠(1962-),女,辽宁沈阳人,教授,博士,主要从事过程控制、管理信息及决策支持系统等方面的研究.

10.7688/j.issn.1000-1646.2016.05.09

TP 391.4

A

1000-1646(2016)05-0526-05

*本文已于2016-03-02 16∶42在中国知网优先数字出版. 网络出版地址:http:∥www.cnki.net/kcms/detail/21.1189.T.20160302.1642.006.html

猜你喜欢

路标移动机器人全景
移动机器人自主动态避障方法
路标
戴上耳机,享受全景声 JVC EXOFIELD XP-EXT1
路标
全景敞视主义与侦探小说中的“看”
路标中的学问
基于Twincat的移动机器人制孔系统
从5.1到全景声就这么简单 FOCAL SIB EVO DOLBY ATMOS
全景搜索
看清医改最要紧的两个路标