航天器空间对接位置视觉测量方法
2016-05-23张铁毅薛建平孙超姣陈勇石超
张铁毅, 薛建平, 孙超姣, 陈勇, 石超
(1.空军装备部 综合计划部, 北京 100843;2.空军工程大学 航空航天工程学院, 陕西 西安 710038)
航天器空间对接位置视觉测量方法
张铁毅1, 薛建平2, 孙超姣2, 陈勇2, 石超2
(1.空军装备部 综合计划部, 北京 100843;2.空军工程大学 航空航天工程学院, 陕西 西安 710038)
摘要:针对航天器空间对接过程中对接环位置的实时测量问题,提出了一种基于单目视觉的对接环识别定位新方法。通过将采集到的目标图像序列RGB信息转换到HSV色彩空间,以图像色调值为判据,实现了航天器空间对接环目标特征的有效提取。结合最小二乘椭圆拟合算法和小孔成像理论,建立了单目视觉的对接环识别定位模型,以完成航天器空间位置的精确计算。仿真结果表明,航天器近距定位可达到小于2 cm的精度,完全能够满足对接的精度要求。
关键词:航天器对接; 视觉定位; 最小二乘椭圆拟合; 小孔成像
0引言
当前,世界各国高度重视发展载人航天和宇宙空间站,如何实现航天器的精确对接已经成为航天领域研究的热点问题。对接环作为空间对接的重要部件,实现其精确定位是航天器空间对接首要解决的关键技术。为此,文献[1]提出了一种基于单目视觉的反投影递推算法,通过Umeyama算法进行三维重建,建立了三维模型点和三维估计点之间的函数关系,仿真平台验证了其算法的有效性,但由于采用递推算法,收敛速度有待提高。文献[2]建立了地面半物理仿真系统,采用向量等式对相对位姿进行解算,并对比了仿真结果和实验结果,结果表明两者吻合度较高,但存在收敛时间过长的问题(超过100 s)。姚荣斌等[3]采用三目视觉进行交会对接位姿测量,并对比了双目视觉线性方案、三目视觉线性方法和非线性方法,旋转角误差精度达到0.18°,但三目视觉方案对于航天器而言,有效载荷较低。何森等[4]设计了三圆地面靶标作为合作目标,距离2 m时,测距误差小于1 mm,精度极高,但三圆靶标对于对接环而言,需另作改装,实用性有待商榷。翟坤等[5]采用椭圆拟合得到对接环的中心位置,使用激光测距仪测量相对距离,精度为米级,精度较低且需要视觉传感器之外的辅助测距传感器,在工程实践方面比较欠缺。
针对航天器空间对接的实时要求,本文提出了一种基于单目视觉的对接环空间位置实时测量方案。采用最小二乘椭圆拟合算法得到对接环中心位置,运用小孔成像理论解算得到深度信息。该方案不但对系统改装少,而且提升了系统有效载荷比,定位精度高,有较大的工程实践意义。
1视觉定位原理
1.1坐标系
为了清晰描述导航相机与对接位置的相对位姿,将各坐标系描述如图1所示。图中:相机坐标系Ocxcyczc是以相机光心为原点,以垂直于图像平面的相机光轴为zc轴,xc轴和yc轴平行于图像平面;世界坐标系是以对接中心Ow为原点,指向航天器方向为zw轴,指向地心向下为xw轴,遵照右手准则确定yw轴;Rwc和Twc分别为世界坐标系相对于相机坐标系的旋转矩阵和平移矩阵,可通过相机标定获得[6]。
图1 坐标系相对位姿关系Fig.1 Relative pose of the coordinate
1.2特征提取
图像兴趣点指的是能吸引人的主观注意力,传递了大量信息的所有像点,即图像信号在二维空间上发生变化的区域,是判断和评价图像的基础,通常包括角点、纹理等。根据目标视觉特征选取的简约性、可分性和可靠性,针对航天器对接结构特点,选取了颜色和形状两种视觉特征。不同的特征,需采用不同的特征提取算法。
首先,提取颜色特征。通过相机采集航天器对接环的图像序列,采集到的图像通常为全彩色图像。全彩色图像由各为8比特像素深度的红、绿、蓝(RGB)图像组成。将RGB色彩空间转换到HSV色彩空间,其转换公式如下[7]:
(1)
式中:R,G,B分别为RGB色彩空间的红、绿、蓝3个分量;H,S,V分别为HSV色彩空间的色调、饱和度和亮度3个分量;max=max(R,G,B),min=min(R,G,B)。
通过提取RGB色彩空间中的红色通道图像,并利用HSV色彩空间的色调值作为图像分割阈值,色调图如图2所示。
图2 色调图Fig.2 Hue picture
为了更为精准地进行视觉测量,考虑到OpenCV函数库中HSV空间的色调值范围为(0,180),将红色的色调值阈值设置为(0,15)。通过色调值可提取红色色彩蒙板,利用该蒙板便可以锁定图像中的感兴趣区,继而进行后续图像处理工作。其次,针对对接区外形特征,采用Canny边缘提取算法处理上述感兴趣区,便于其定位计算。为消除冗余信息,采用内、外环长轴之比作为阈值,剔除伪边缘,以实现准确特征提取。设f(x,y)为输入图像,G(x,y)为二维高斯函数:
(2)
则二者卷积之后可得平滑后的图像为:
(3)
对平滑图像进行梯度运算,得到梯度幅值和角度为:
(4)
式中:gx=∂fs/∂x,gy=∂fs/∂y。
由于梯度M(x,y)在局部最大值周围通常包含更宽的边界范围,为了细化边缘,对计算结果按抑制规则进行非最大值抑制。
对非最大抑制图像进行滞后阈值处理,以便减少伪边缘点。设高阈值为TH,低阈值为TL,则阈值分割后的图像为:
(5)
式中:gNH(x,y)和gNL(x,y)图像可分别称之为“强边缘”和“弱边缘”。为了形成长边缘或闭合边缘,对其进行连接分析,并连接边缘点。按此执行边缘检测算法,以便得到一个边缘提取效果较好的图像。
1.3视觉定位
经过色调特征提取、边缘检测将目标与背景分割后,对红色双环特征区域的边缘进行最小二乘椭圆拟合[8]便可得到双环中心,即平面任意位置椭圆的数学模型可表示为:
(6)
式中:(x0,y0)为椭圆的中心坐标;a为长轴半径;b为短轴半径;θ为长轴与x轴的夹角。
令参数:
(7)
(8)
(9)
(10)
(11)
则椭圆模型可进一步改写为:
x2+Axy+By2+Cx+Dy+E=0
(12)
根据最小二乘原理,通过求解以下最优化模型:
minF(A,B,C,D,E)=
(13)
即可进一步确定参数A,B,C,D,E的值。其中,k=1,2,…,n;n≥5。
由极值原理可知,欲使目标F最小,必存在:
(14)
进而通过A,B,C,D和E的值得到椭圆中心坐标:
(15)
在椭圆拟合过程中,为克服实时测量过程中目标图像的拖影现象[9],增强算法鲁棒性,对图像中的双环均进行拟合,以双环中心位置像素偏差值作为判据,从而消除冗余识别结果。通过提取椭圆参数,即可得到对接区的中心位置。
为实现目标三维空间定位,需测量目标深度信息,一般方法有激光测距[5]、雷达测距[10]和视觉定位[11]等。本文采用小孔成像原理,其空间深度信息如图3所示。
图3 小孔成像原理Fig.3 Pin-hole imaging principle
由于小孔成像存在“近大远小”现象,故深度计算公式如下:
(16)
式中:Z为深度,即相对距离;M为对接环直径;m为图像中对接环像素尺寸;f为相机焦距。
在对接环半径尺寸已知的情况下,该方法能够快速准确地获得空间深度信息,不仅减少了系统结构冗余,而且算法简单,更具有工程实现价值。
2仿真结果及分析
为验证方法的有效性,以模拟航天器对接为目的进行仿真试验。硬件环境和软件环境如下:
(1)硬件环境:PC机AMD处理器,主频2.5 GHz,内存2GB;相机采用维视工业级相机;由地面靶标物理模型。
(2)软件环境:采用Visual C++6.0软件编写平台,运用C语言对算法进行编程。
基于此平台模拟航天器对接过程,设计了一条对接轨迹。从对接模拟轨迹上均匀选取一定数量数据点,对其对接位置进行三维视觉测量,记录各点数据,并绘制误差曲线。对接过程的序列图像如图4所示。
由图4可知,对接过程中,双环感兴趣区是从椭圆逐渐变成正圆的过程,且变化幅度较大。识别结果中,目标与背景对比度大,边缘清晰,图像噪点少,表明本文方法是有效的。
图4 对接过程序列图像Fig.4 Image series of spacecraft docking
对航天器对接过程进行均匀采样,记录各数据点的理论值和本文算法的解算值,绘制轨迹图和测量误差图如图5和图6所示。
图5 图像对接轨迹Fig.5 Image trajectories of spacecraft docking
图6 对接测量误差Fig.6 Measurement errors of spacecraft docking
由图5可知,航天器从其他轨道上升至对接航天器或者空间站所在轨道过程中,视觉测量得到的航天器飞行轨迹与所设计的运动轨迹高度吻合,即在不同空间位置,定位精度保持高度一致,进一步验证了本文算法的有效性。
由图6可知,在逼近对接过程中,对接环的目标定位达到了小于2 cm的精度,可以满足航天器对接精度要求,且地面测量过程在半物理仿真平台上以30帧/s的速度对视频进行处理,能够满足实时性要求。
3结束语
针对航天器空间对接中对接环实时定位问题,提出了一种基于视觉测量的对接环识别定位新方法。仿真结果验证了算法的有效性,定位结果达到小于2 cm的精度,完全能够满足航天器对接的精度要求,为航天器的成功对接提供了一种新方案。然而,该方案未对姿态信息进行求解,且试验设计缺乏天地一致性校验,要将其运用于工程实践,仍需要展开更多实践性工作。.
参考文献:
[1]Zhang Shijie,Cao Xibin,Zhang Fan,et al.Monocular vision-based iterative pose estimation algorithm from corresponding feature points[J].Science China Information Sciences,2010,53(8):1682-1696.
[2]Huang Qitao,Jiang Hongzhou,Zhang Shangying,et al.Spacecraft docking simulation using hardware-in-the-loop simulator with stewart platform[J].Chinese Journal of Mechanical Engineering,2005,18(3):415-418.
[3]姚荣斌,丁尚文,李生权,等.基于三目视觉的航天器交会对接位姿测量方法研究[J].空间科学学报,2011,31(4):527-533.
[4]何森,王志斌,张旭峰,等.航天器对接相对位置姿态自主测量方法研究[J].光学技术,2009,35(6):931-938.
[5]翟坤,李志,陈新龙,等.非合作航天器对接环识别算法研究[J].航天控制,2013,31(5):76-81.
[6]Zhang Z.A flexible new technique for camera calibration[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2000,22(11):1330-1334.
[7]李微,李德仁.基于HSV色彩空间的MODIS云检测算法研究[J].中国图象图形学报,2011,16(9):1696-1701.
[8]韩九强,胡怀中,张新曼.机器视觉技术及应用[M].北京:高等教育出版社,2009:170-171.
[9]杨华,衣燕慧,刘国东,等.拖影情况下快速飞行乒乓球体的实时识别与跟踪[J].沈阳航空航天大学学报,2014,31(1):47-51.
[10]常清,潘江怀,安瑾.多雷达距离测量空间定位方法及精度分析[J].电光与控制,2012,19(6):45-48.
[11]熊斓晖,王元庆.共轴立体视觉深度测量[J].现代电子技术,2012,35(6):115-122.
(编辑:崔立峰)
A vision-based location method for spacecraft docking
ZHANG Tie-yi1, XUE Jian-ping2, SUN Chao-jiao2, CHEN Yong2, SHI Chao2
(1.Air Force Armament Department Integrated Program Office, Beijing 100843, China;2.Aeronautics and Astronautics Engineering College, AFEU, Xi’an 710038, China)
Abstract:Focusing on the real-time docking ring location problem, a novel method based on monocular measurement is proposed. The target image series are transformed from RGB term to HSV color space. By taking the value of HSV as the criterion, the spacecraft docking ring target feature is detected efficiently. With the combination of least square ellipse fitting and pin-hole imaging theory, a monocular docking ring recognition and location model was put forward to compute the docking ring’s location accurately. The simulation results indicate that the location precision is less than 2 cm in closer distance, which can completely meet the docking requirements.
Key words:spacecraft docking; vision-based location; least square ellipse fitting; pin-hole imaging
中图分类号:V411.8; TP274
文献标识码:A
文章编号:1002-0853(2016)01-0068-04
作者简介:张铁毅(1971-),男,辽宁沈阳人,硕士,研究方向为航天器控制技术。
收稿日期:2015-05-07;
修订日期:2015-09-09; 网络出版时间:2015-09-30 11:50