一种非合作卫星目标立体视觉测量技术
2017-09-23李涛,吴云
李 涛,吴 云
(北京控制工程研究所,北京 100090)
一种非合作卫星目标立体视觉测量技术
李 涛,吴 云
(北京控制工程研究所,北京 100090)
针对空间非合作卫星近距离的相对位置和姿态测量问题,提出一种立体视觉测量技术.使用激光雷达为双目立体视觉提供先验距离信息和粗略姿态,在双目相机左右图像特征提取时增加视差范围约束,限定左右图中同名特征点提取的范围,可避免杂光条件下局部复杂纹理的干扰,有效降低计算复杂度,提高图像处理的速度.通过地面闭环试验对测量技术进行了验证,实验结果表明方法的有效性和先进性.
非合作目标;同名点;复杂度
0 引 言
随着空间技术的发展,在轨运行和失效卫星的数量逐步增加,面向卫星的在轨捕获、维修维护等任务逐渐成为研究的热点[1].由于多数在轨卫星上没有标志器或反射器等合作标志,为非合作卫星的捕获跟踪和抵近操作带来了很大的挑战[2].
在非合作卫星抵近的过程中,可靠稳定的测量数据必不可少,现有已知的测量敏感器主要为激光类和双目立体视觉类敏感器.欧空局设计的地球静止轨道恢复期对非合作目标的测量手段主要有激光测距,存在针对不同反射材料和角度时点云数据过少难以获得精确位置姿态的问题[3];德国宇航局(DLR)开展的TECSA项目采用了复杂的非合作目标识别算法[4],但难以满足实时性的要求.徐文福等[5]提出一种基于双目立体视觉的位姿测量方法,以卫星三角形太阳帆板支架为识别对象,通过位姿匹配从而获得目标卫星的位姿.但算法过程无先验信息,处理复杂度较高,难以在轨实际应用.
针对现有激光和双目测量敏感器存在的问题,使用激光雷达辅助双目视觉系统对非合作目标进行测量.激光雷达对非合作目标进行距离测量后,可以为双目视觉提供先验的视差信息和粗略的位置姿态.双目左右相机在对目标进行特征提取匹配时可以利用先验信息,在图像局部区域进行特征提取和匹配计算,降低计算量和复杂度同时提高测量结果的鲁棒性.
1 测量系统
本测量系统由安装在追踪星上的双目立体视觉系统和激光雷达组成,对非合作目标星进行测量.如图1所示,双目立体视觉系统和激光雷达安装在追踪星的同一平面上,激光雷达对目标进行扫描后可以得到目标的距离信息,同时双目相机左右相机对目标进行成像,在左右图像上提取目标稳定特征点,经过左右立体匹配后得到目标位置姿态信息.
工作过程中,激光雷达测量得到目标在激光雷达坐标系OJXJYJZJ下的位置(XJ,YJ,ZJ)后,可以经过坐标转换得到目标在双目左相机坐标系OlXlYlZl下的位置(Xl,Yl,Zl),双目左相机坐标系OlXlYlZl被定义为双目视觉系统的坐标系,激光雷达坐标系OJXJYJZJ和双目视觉系统坐标系OlXlYlZl之间的关系可以由标定得到.
2 非合作目标的测量方法
首先使用激光雷达对目标进行扫描,得到目标的初始距离,双目视觉系统得到左右图像后对目标进行特征提取筛选,立体匹配和位姿计算.主要的算法流程如图2所示.
由于星上计算能力的限制和实时测量的需求,选择卫星帆板边缘、星体边缘和圆形对接环为主要特征进行识别.左相机在对卫星进行特征提取时需要对整幅图像进行特征提取,但右相机进行提取时可以利用激光雷达提供的距离信息,在部分图像区域内进行特征提取,可以提高处理的速度,同时避开由于杂光引起的局部区域复杂纹理干扰.
2.1特征点识别和筛选
卫星上的主要轮廓是目标的稳定特征,本节首先采用边缘检测和直线拟合的方法识别帆板边缘和星体边缘,然后再使用圆拟合的方式对对接环目标进行识别.
(1)帆板边缘和星体边缘识别
步骤1.从上到下扫描图像,记录下第一次和最后一次图像灰度梯度大于一定阈值的点坐标,将其加入边缘队列.从左到右扫描图像,记录下第一次和最后一次图像灰度梯度大于一定阈值的点坐标,将其加入边缘队列.
步骤2.对边缘点队列中的点进行直线拟合,使用如下算法:
1)在队列中任意挑选两个点求直线方程.
2)计算队列中的点到直线的距离,如果距离小于一定值,则为这个直线方程投一票.
3)如果直线方程的票数大于总点数的2/3,直线拟合成功,记录下所有为直线方程投票的点.如果小于总点数2/3,比较当前方程的票数和前一个方程的大小,记录下票数较多的方程,回到1).
4)重复上述步骤直到得到票数最多的直线方程.
步骤3.根据直线方程求得交点作为卫星主要轮廓角点的备选点.
如图3所示,经过直线提取和角点计算后可以得到卫星帆板角点,星体角点和一些主要的轮廓角点,由于纹理复杂和左右相机视角差异,有些角点可能会出现提取错误的情况,需要进一步进行筛选和剔除.
(2)对接环识别
星上包覆材料中,对接环外部为金黄色船衣,反射率较高,对接环内部为黑色包覆,反射率低,图像灰度值较低.理想状况下,对接环目标内外的灰度变化比较显著,但在光照角度变化时,由于阴影和褶皱的影响,纹理比较复杂.为了提高鲁棒性,使用射线法提取边缘然后使用三点定圆拟合算法[6]识别对接环.
2.2特征点筛选和立体匹配
通过特征提取可以得到很多特征点,但受到各种因素的影响,得到的众多特征点中掺杂了一部分的“伪特征点”,在进行立体匹配和姿态计算之前需要对其进行剔除.通过加入一些附加信息和约束条件对特征点的正确性进行判断和筛选,这些约束主要包括:
1)极线约束:极线约束是指空间点在左像面上的投影和其在右像面上的投影共轭极线上的约束.左相机得到的特征点和右相机的特征点经过极线对正后应当位于同一行上.
2)距离约束:由于激光雷达已经提供了非合作目标的初始距离,所有特征点经过立体匹配后得到的三维距离应当在一定范围内,同时不同特征点之间的距离差应当小于目标本身的最长轴长度.
2.3姿态求解
经过特征点筛选和立体匹配后,可以得到特征点的视差,此时由视差原理[7-8],可求得匹配特征点在双目视觉坐标系下的三维坐标位置(XLvi,YLvi,ZLvi),i=1,2,…,N.接下来通过特征点在目标本体坐标系和双目视觉坐标系下的对应关系迭代求解可以得到目标的位置和姿态[9-11].
3 实验验证
为了验证上述非合作目标测量方案的有效性,搭建了9自由度半物理实验平台,非合作目标卫星模型放置在3自由度目标台上,双目视觉系统和激光雷达安装在6自由度追踪台上;追踪台根据测量结果闭环接近非合作目标.在模拟轨道左侧距目标大约30 m处放置了太阳模拟器将卫星模型照亮.
地面试验过程中,使用激光雷达辅助双目视觉系统对目标的位置姿态进行测量,然后通过控制6自由度追踪台向目标接近.双目左右相机之间的基线长度为600 mm,内凑角为6°,视场角为30°(全视场),激光雷达和双目相机安装在同一平面上,光轴指向基本一致,视场范围30°(全视场).实验中,对比了使用激光雷达辅助测量和单独双目视觉测量两种方案的工作时间和计算复杂度.
如图6所示,双目视觉系统使用的特征为帆板角点、星体角点和对接环中心.当使用激光雷达进行辅助时,双目特征点提取和匹配的范围可以减小为原有的30%以下,有效提高了图像处理的速度,同时避免了其他区域杂光的干扰.图像处理时间可以由原有的120 ms降低为40 ms以下;同时由于激光雷达可以提供目标粗姿态,位置和姿态求解过程中迭代求解的次数可以大大降低,平均20次的迭代次数可以降低至4次以内,数据更新率可以由原有的1 Hz提高至2 Hz以上.
6自由度追踪台根据测量得到的位姿信息向目标进行接近,控制系统要求的位置及姿态误差不大于20 mm和2°.接近过程中测量数据如图7~8所示,可以发现在15 m以外时姿态计算的X轴的数据跳动较大,但到15 m以内时可以逐渐稳定可以达到2°以下的精度.主要原因为双目视觉系统的左右相机之间的基线长度只有600 mm,而目标卫星为长条形,绕长轴方向的转动信息在像面上不敏感,误差较大.其他各个方向的位置和姿态在各个距离下均可满足控制需求,对非合作目标的在轨接近有指导意义.
4 结 论
针对非合作目标测量问题,提出一种激光雷达辅助双目视觉系统测量技术,使用激光雷达对目标进行距离测量后,双目左右相机在对目标同名点进行提取时使用已有的距离信息对视差进行限制,减小了特征提取的区域,并在错误点剔除和姿态求解时提供先验信息,降低计算量的同时提高了测量数据的鲁棒性.使用物理实验平台进行了闭环实验,对该技术的正确性和鲁棒性进行了验证,实验结果表明该技术具有算法简单、运行效率高、测量误差小的特点,对开展非合作航天器的近距离逼近阶段位姿测量具有重要参考价值.
[1] 蔡洪亮,高永明,邴启军. 国外空间非合作目标抓捕系统研究现状与关键技术分析[J]. 装备指挥技术学院学报, 2010, 21(6): 71-77. CAI H L, GAO Y M, BING Q J. The research status and key technology analysis of foreign non-cooperative target in space capture system[J]. Journal of The Academy of Equipment Command & Technology, 2010, 21(6): 71-77.
[2] 梁斌,杜晓东,李成.空间机器人非合作航天器在轨服务研究进展[J].机器人,2012,19(2):242-256. LAING B, DU X D, LI C. Advances in space robot on-orbit servicing for non-cooperative spacecraft[J]. Robots, 2012,19(2):242-256.
[3] 雷鹏,王俊. 美国天基自主交会对接技术的发展[J]. 国际太空, 2008, 4: 26-31.
[4] MARTIN E, DUPUIS E, PIEDBOEUF J C, et al. The TECSAS mission from a canadian perspective[C]//The 8thInternational Symposium on Artificial Intelligence and Robotics and Automation in Space (i-SAIRAS). Munich, 2005.
[5] 徐文福, 梁斌, 李成等. 基于立体视觉的航天器相对位姿测量方法与仿真研究[J]. 宇航学报, 2009, 30(4): 1421-1428. XU W F, LIANG B, LI C, et al. The approach and simulation study of the relative pose measurement between spacecrafts based on stereo vision[J]. Journal of Astronautics, 2009, 30(4): 1421-1428.
[6] 孙国栋,杨林杰,张杨.基于三点迭代的聚类圆拟合算法[J].制造业自动化, 2015,15(7):76-78. SUN G D, YANG L J,ZHANG Y. Cluster circle fitting algorithm based on three points iterative[J].Manufacturing Automation, 2015,15(7):76-78.
[7] 曹喜滨,张世杰.航天器交会对接位姿视觉测量迭代算法[J].哈尔滨工业大学学报,2005,37(8):1123-1126. CAO X B, ZHANG S J. An iterative method for vision-based relative pose parameters of RVD spacecraft[J]. Journal of Harbin Institute of Technology, 2005,37(8):1123-1126.
[8] DOUGLAS D,PEUCKER T.Algorithms for the reduction of the number of points required for represent a digitized line or its caricature[J].Cartograghica,1973,10:112-122.
[9] ANSARI M E,MASMOUDI L,RADOUANE L.A new region-matching method for stereoscopic images[J].Pattern Recognition Letters,2000,21(4):283-294.
[10] JASIOBEDSKI P,GREENSPAN M,ROTH G.Pose determination and tracking for autonomous satellite capture[C]//The 6thInternational Symposium on Artificial Intel ligence,Robotics and Automation in Space.Quebec,2001:1-8.
[11] ANDREAS B.Space-shuttle with a device for docking to satellite[P].US patent:20100301169,2010.
MeasurementTechnologyBasedonStereoVisionforNon-CooperativeTargets
LI Tao, WU Yun
(BeijingInstituteofControlEngineering,Beijing100090,China)
A stereo vision based pose measurement method is proposed for non-cooperative space targets. Laser radar can provide prior information such as distance and position for binocular vision system. Based on the information, the search area can be narrowed for the image pair because the disparity is determined for a certain distance. The compute complexity can be reduced so that measurement efficiency is improved. Meanwhile, algorithm is more robust because the texture complexity caused by stray light is lower at local area than global image. A closed-loop experiment is conducted to validate the performance of proposed method.
non-cooperative targets; match point; complexity
TP391
:A
: 1674-1579(2017)04-0052-05
10.3969/j.issn.1674-1579.2017.04.009
2017-04-18
李涛(1985—),男,工程师,研究方向为数字图像处理,立体视觉测量;吴云(1984—),男,工程师,研究方向为激光雷达及三维点云处理.