APP下载

运用跑道平面结构化线特征的固定翼无人机视觉导航算法*

2016-07-14周朗明张跃强雷志辉张小虎

国防科技大学学报 2016年3期
关键词:计算机视觉

周朗明,钟 磬,张跃强,雷志辉,张小虎

(国防科技大学 航天科学与工程学院, 湖南 长沙 410073)



运用跑道平面结构化线特征的固定翼无人机视觉导航算法*

周朗明,钟磬,张跃强,雷志辉,张小虎

(国防科技大学 航天科学与工程学院, 湖南 长沙410073)

摘要:针对固定翼无人机在着陆阶段的位姿估计的问题,提出运用跑道平面结构化线特征的无人机视觉导航算法。利用单台固连在无人机上的前视相机对跑道区域进行成像,自动提取结构化线特征。在无人机降落前期利用完整的结构化线特征配置解算出无人机的六自由度位姿参数(偏航角、俯仰角、滚转角、纵向位置、横向位置、高度),并在无人机降落到较低高度时,利用退化的结构化线特征(跑道边缘)解算出无人机的关键位姿参数(偏航角、俯仰角、横向位置、高度)。三维实景仿真实验证明,在距离机场200 m处,无人机的距离参数精度小于0.5 m,角度参数精度小于0.1°。

关键词:计算机视觉;固定翼无人机;着陆引导;消影点;位姿估计

无人机的自主着陆和回收是无人机研制、生产、运行中的重要环节,也是最容易发生事故的阶段之一,精确稳定的状态参数估计是自主着陆和回收的基础[1]。常规的状态参数估计手段包括全球定位系统(Global Positioning System,GPS)和惯性导航系统(Inertial Navigation System,INS)[2]。相对于GPS[3-4]与INS[5],基于视觉的状态参数估计方法具有被动测量、自成体系、无时间累积误差、成本低、可测参数多、不受干扰等多种优势[6-8],近年来受到越来越多的关注。

目前着陆期间的无人机位姿参数估计与定位利用现有的机场内的人工或自然景物作为标志物进行位姿估计的主要方法有:Ettinger等[9]利用机载视觉传感器获取微型无人飞行器的滚转角和俯仰角,当无人飞行器飞到适当的高度时,依据拍摄图像中的地平线倾角得到无人飞行器的滚转角,由图像中地平线分隔的上下两部分区域的面积之比得到无人飞行器的俯仰角。Sasa等[10]提出了一种利用单目摄像机拍摄的跑道边缘线和海平线计算得到无人机降落过程中的位姿参数的方法,并指出如果图像中无法拍摄到海平线等关键边缘线,也可以通过惯性测量装置获得姿态信息,利用跑道获得位置信息。伯克利的无人机协同控制中心通过对道路中心线的跟踪,确定无人固定翼飞机的偏航角和水平偏移量,并结合机载的惯性传感器完成对无人固定翼飞机的控制[11]。Dusha等[8]利用光流法提取地平线,从而解算出固定翼无人机的姿态角。Kannand等[12]基于单目地基相机利用飞机外形几何信息对固定翼无人机进行位姿计算。Huh等[4,13]在固定翼无人机的降落轨道区放置一个红色的气囊,通过机载单目视觉方法检测该气囊的位置从而反算无人机的运动参数,引导无人机撞网回收。Anitha等[14]关于已知跑道宽度,提取跑道边缘和跑道中心线来分别计算位置和横向偏移的方法。Kim等[15]基于视觉的固定翼无人机全自主撞网回收降落,也是根据机载单目相机检测回收网来计算相对位置和姿态,引导无人机撞网回收。Gui等[16]在跑道附近安装四个红外灯,通过机载的单目相机提取灯的精确位置,从而解算出无人机的位姿参数用于助降引导。刘兴华[17]和高爱民等[18]选择着陆场的边缘特征作为无人机着陆的导航特征,并提取、研究了系列视觉方法确定无人机的姿态及相对于着陆场的位置。徐贵力等[19]提出以GPS为主,以捷联惯性导航结合主动式红外激光扫描定位及计算机视觉识别着陆跑道为辅的无人机导航和着陆精确导引技术,对着陆点坐标与着陆跑道方向的确定等问题进行了分析和研究。李健等[20]提出以双目视觉为主,辅助惯性导航对无人机的姿态进行估计。李红等[21]通过对机载相机获取的跑道图像进行处理,在跑道照明的透视图像中采用Hough变换提取三条跑道线,由跑道线的形状和位置特征来估计飞机的姿态及位置。

分析以上研究方法:有些只能解算出无人机的部分位姿参数;有些需要借助地平线或海平线特征,这些特征被视为最佳的自然参考特征,但在城市区域不可见[22],限制了应用;有些基于点特征的约束进行位姿估算,但需要布置较多的合作点标志,并且点特征的提取精度和鲁棒性均有限。本文基于跑道特征和跑道平面特征,研究提出一种位姿估计算法。

1问题描述

假定相机相对于无人机机体的安装角度和位移已标定,当求出相机的位姿后,可以经过刚体转换得到无人机的位姿信息。在无人机着陆前期,跑道边缘和合作标志线均会出现在相机视场中,将这种情况称为全配置的结构化线特征。随着无人机高度的降低,纵向和高度方向上的景观逐渐减小,在某个时刻之后,合作标志线将位于相机视场之外,但由于跑道区域较大,此时跑道边缘线仍可见,将这种情况称为退化配置的结构化线特征。

1.1坐标系定义

固定翼无人机自主着陆的基准轨迹是根据一系列约束条件而设定的能够保证无人机安全着陆的一条高度剖面下滑轨迹,整个轨迹可分为六个阶段,分别是进场飞行、轨迹捕获、陡下滑、圆拉平、浅下滑和拉平接地[23],如图1所示。其中拉平阶段是进场着陆段最后一个飞行动作。这一阶段也是无人机姿态求解阶段,称为下滑窗口。在该阶段,机载相机视场中的景观呈现垂直区域小、水平区域大的特点,跑道及跑道平面上的合作或非合作标志是最为明显的可视特征。

图1 固定翼无人机着陆的基准轨迹Fig.1 Base pathway of landing stage of fixed-wing UAVs

如图2所示,分别定义了下滑阶段的世界坐标系Ow-XwYwZw,图像像素坐标系I-xy,图像主点坐标系o-uv和相机坐标系Oc-XcYcZc。

图2 坐标系建立及结构化线特征分布Fig.2 Establishment of coordinate system anddistribution of structured-lines

图像主点坐标系o-uv与图像像素坐标系I-xy的转换关系为:

(1)

其中,xo,yo为图像主点坐标。

世界坐标系Ow-XwYwZw与相机坐标系Oc-XcYcZc的转换关系为:

(2)

其中,R为由无人机的滚转角、俯仰角和偏航角构成的旋转矩阵,按照欧拉角的形式展开[6]得到:

(3)

R1~R3为R的列向量,根据R的正交性有:

R3=R1×R2

(4)

根据针孔模型,可得世界坐标系Ow-XwYwZw与图像像素坐标系I-xy的转换关系[6]。

(5)

其中,f为等效焦距。

1.2位姿参数定义

无人机在着陆阶段的位姿参数定义如下:

1)偏航角Ay:定义为相机绕Yw轴旋转的角度,向右偏为负,向左偏为正。

2)俯仰角Ax:定义为相机绕Xw轴旋转的角度,向上偏为负,向下偏为正。

3)滚转角Az:定义为相机绕Zw轴旋转的角度,向右偏为负,向左偏为正。

4)纵向距离Z0:相机光心在世界坐标系Ow-XwYwZw中的Z坐标。

5)横向距离X0:相机光心在世界坐标系Ow-XwYwZw中的X坐标。

6)高度Y0:相机光心在世界坐标系Ow-XwYwZw中的Y坐标。

1.3算法流程

算法流程如图3所示。相机观察到跑道区域的景观后,提取和跟踪跑道边缘的线特征,如判断在跑道区域内能观察到单条合作标志线,则算法进入全配置的结构化线特征解算模式,首先提取单条合作标志线的线特征,然后计算同跑道边缘的交点,及跑道边缘的消影点。根据全配置结构化线特征的几何约束解算出旋转矩阵和平移矩阵,最后分解出位置和姿态参数。若不能观察到单条合作标志线,则算法进入退化配置的结构化线特征解算模式,计算消影点,在滚转角已知或约为0°的情况下,输出偏航角、俯仰角、横向距离、高度四个关键的位姿参数。

图3 方法流程图Fig.3 Work flow

2位姿参数求解

2.1全配置情况下的参数解算

利用两条平行线(跑道左右边缘)和一条垂直于这条平行线且共面的线(单条合作标志线)的配置来进行全部位姿参数的求解。其中:利用消影点和旋转矩阵R的正交特性进行角度参数的求解;在旋转矩阵R已知的情况下,利用结构化线的交点性质线性求解平移矩阵T。

2.1.1角度参数求解

单位方向矢量为d的三维空间直线的消影点是过相机中心且方向为d的射线与图像平面的交点v[24],可表示为:

v=Kd

(6)

其中,K为内参数矩阵。

消影点作为无穷远点的图像,不受相机位置变化的影响,但是要受相机旋转的影响。因此对于运动的相机而言,设某一时刻的相机坐标系与世界坐标系之间的旋转矩阵为R,则式(6)需改写为:

v=KRd

(7)

将以上消影点的性质应用到本文的配置中。如图2所示,合作标志线与跑道边缘线正方向的单位向量分别为d1和d2。

(8)

由式(7)可知,位于直线L1,L2和L3上的消影点的表达式为:

(9)

将R表达为列向量形式,则式(9)变换为:

(10)

而消影点v2是图像平面直线l2,l3的交点,即:

v2=l2×l3

(11)

根据R矩阵的正交性R-1=RT变换式(9),可得到:

(12)

又d1⊥d2,即:

d1·d2=0

(13)

将式(12)代入式(13)中,可变换为:

(RTK-1v1)·(RTK-1v2)=0

(14)

整理式(14)可得:

(15)

又点v1位于直线l1上,即:

v1·l1=0

(16)

联立式(15)和式(16),可得:

(17)

消影点v2可由影像平面上的跑道左右边缘相交得到,即提取影像平面上左右边缘的直线方程后再由式(11)计算得到。由式(17)可计算出消影点v1。再将消影点v1和v2代入式(10)中可计算出R矩阵的前两列,再根据旋转矩阵的正交性质可计算R矩阵的第三列,即得到旋转矩阵R,并分解得到三个姿态角。

基于全配置的结构化线特征计算姿态角的步骤如下:

1)根据式(11)计算消影点v2;

2)根据式(10)计算R3;

3)根据式(16)计算消影点v1;

4)根据式(10)计算R1;

5)根据正交性质计算R2=R1×R3,得到旋转矩阵R;

6)根据旋转矩阵R分解得到俯仰角Ax、偏航角Ay、滚转角Az。

2.1.2位置参数求解

(18)

其中,k2,k3为深度系数。

(19)

根据结构化线特征的几何约束,可得式(20)成立。

(20)

展开得到:

(21)

又基于跑道宽度为W的约束,可得到:

(22)

联立式(21)和式(22),可得深度系数为:

(23)

根据针孔相机模型中的相机坐标系和世界坐标系的转换关系,得:

(24)

再根据平移向量与相机光心位置的转换关系,可得到侧偏距X0,高度Y0,横向距离Z0,计算如式(25)所示。

(25)

基于全配置的结构化线特征计算位置参数的计算步骤为:

1)根据2.1.1节中的流程计算旋转矩阵R;

2)根据式(23)计算深度系数k2,k3;

4)根据式(24)计算平移向量T;

5)根据式(25)分解出侧偏距X0,高度Y0,横向距离Z0。

2.2退化情况下的参数解算

随着无人机高度继续降低,相机视场在纵向距离的景物会减少,单条合作标志线会逐渐远离相机视场。此时只有跑道边缘线可以为位姿求解服务。此时,假设无人机的滚转角保持不变或约为,利用退化的结构化线特征,仍然可以提供部分位姿参数。

在合作标志线消失之前的相片序列中,全配置的参数中可以提供纵向距离和滚转角,此时无人机已经位于较低的高度,该距离可以提供无人机最小待飞距离的参考值,只要此时无人机前向的跑道长度大于该值即可认为无人机在纵向距离上是安全的。而在着陆末阶段,滚转角可视为基本不变,因此在合作标志线消失后,该算法仍然能提供横向和高度距离以及偏航和俯仰角度,虽然只是部分参数,但在降落末阶段时对于助降仍然有意义。

2.2.1角度参数求解

从共线方程出发,对俯仰角和偏航角进行求解。对于消影点p而言,其物方坐标满足Zw≫Yw,Zw≫Xw,则如式(5)所示的共线方程可变换为:

(26)

根据消影点的性质,其位置的变化主要是由相机姿态决定的[25],从式(26)中也可以看出,没有任何位置参数量对其产生影响。

图4是像平面的正视视图,l2和l3为跑道边缘线的影像,点p为消影点。滚转角可表达海天线或水平线的方向,消影点位于海天线或水平线上。因此过点p作与轴u的夹角为Az的直线,该直线即为海天线或水平线的图像[12]。

图4 消影点在像平面中心坐标系中的几何关系Fig.4 Geometrical relationship of vanish point incenter coordinate system of image plane

在图4中,建立一临时坐标系:以o为原点,以平行海天线图像的轴为x′轴,以垂直x′轴为y′轴,将消影点p转换到该临时坐标系,即表示对滚转角进行纠正,转换公式为:

(27)

展开整理可得到偏航角和俯仰角分别为:

(28)

(29)

在退化配置情况下的角度参数求解过程如下:

1)根据式(26)计算消影点图像坐标(up,vp);

2)输入滚转角,根据式(27)计算纠正滚转角后的消影点图像坐标(u′p,v′p);

3)根据式(28)、式(29)计算偏航角和俯仰角。

2.2.2位置参数求解

(30)

图5 物方空间的跑道边缘及其成像Fig.5 Runway edges in object space and their image

对应地,设跑道左右边缘的空间直线方程为:

(31)

将点对A-A′和B-B′的坐标代入共线方程,整理得到:

(32)

(33)

根据式(27)对像点进行滚转角纠正,整理式(32)、式(33)得到:

(34)

将消影点p与点A,B的坐标分别代入图像直线l2,l3的方程中,并整理为斜率形式,得:

(35)

如图4所示,对于进行了滚转角纠正后的图像点坐标及直线斜率,角度关系为:

(36)

联立式(34)、式(36),整理得到:

(37)

则位置参数为:

(38)

退化配置下的位置参数求解过程如下:

1)利用线特征提取和跟踪方法提取得到跑道左右边缘在图像上的直线方程l2,l3;

2)根据式(35)计算跑道左右边缘的图像直线的斜率d2,d3;

3)输入滚转角,根据式(36)计算纠正滚转角后的斜率d′2,d′3;

4)根据式(38)计算侧偏距X0和高度Y0。

3实验

3.1三维仿真场景准备

设计了如图6所示的三维仿真场景,图像大小为1280×1024像素,水平和竖直的视场角为40°和32°,场景中的跑道宽度为60 m,初始降落位置距离跑道起始端线1950 m,高度为200 m。降落时间为40 s左右,在前35 s可以看到跑道边缘和跑道起始端线,符合全配置的情况,在后5 s左右只能看到跑道边缘,符合退化配置的情况。对结构化线特征进行提取,并计算平行跑道直线的消影点。

图6 三维仿真场景及结构化线特征提取Fig.6 3D simulation environment andstructured line features extraction

3.2位姿解算结果

三维仿真场景程序可以提供开环的测试环境,即能以设计值(真值)驱动无人机降落。执行本文算法,进行对应的参数解算,将测量值与真值进行比较。设计了如表1所示的降落参数,其中:俯仰角保持为5°不变,偏航角由5°变化为0°,滚转角保持0°不变,高度X由200 m变化为0 m,纵向距离Z由1950 m变化为0 m,横向距离由40 m变化为0 m。

表1 三维仿真场景的设计降落参数

对三维仿真场景提供的序列图像进行处理,在降落初期,利用全配置的解算方法计算出6个参数,在降落末期,利用退化配置的解算方法计算出4个关键参数。如图7所示,将计算的参数依照序列帧的时间顺序输出。

(a) 角度曲线(a) Curve of angle

(b) 纵向距离曲线(b) Curve of longitudinal distance

(c) 横向位移曲线(c) Curve of lateral distance

(d) 高度曲线(d) Curve of altitude图7 全配置条件下参数曲线Fig.7 Parametric curve in fully configured environment

对测量值和真值的不同时刻的偏差进行采样统计,结果见表2。表2的数据和图7中的曲线形状均呈现了随距离逼近误差逐渐减小的特点。分析该特点的造成原因,主要是由于三维仿真场景的成像精度不够,如图6所示,在初始位置处提取的跑道长度和宽度像素分别为62和35个像素,不到图像长宽的1/20,这样会造成线提取精度不够从而影响参数解算精度。随着距离减小,结构化线特征逐渐清晰,解算精度随之提高。

本文方法与Sasa方法实验结果进行比较,见表3,可以得出该方法的精度略优于对比试验精度,本文方法最大优势在于可以解决全参数问题。

表2 解算参数与真值的偏差

表3 本文方法与Sasa方法偏差比较

4结论

基于结构化线特征的固定翼无人机视觉着陆引导算法,使用单台装载在无人机上的前视相机,考虑到无人机着陆阶段的成像特点,将跑道边缘和位于跑道平面上的单条合作标志线设计为结构化线特征,用于求解无人机全部位姿参数及关键位姿参数。在着陆前期,前视相机能观察到跑道边缘和单条合作标志线,此时算法能计算出无人机的六自由度位姿参数。在着陆末期,无人机几乎贴近地面,由于相机视场的限制,将无法观察到单条合作标志线;在此情况下,算法能计算出无人机的关键位姿参数(俯仰角、偏航角、横向距离及高度)。三维实景仿真实验证明了算法的有效性。同时用于解算的单条合作标志线只需要布置在跑道平面内,易于工程实现,可应用于机场、高速路的无人机自主助降。

算法的局限性在于:无人机降落末期将无法观察到单条合作标志线,并且无法提供纵向距离。接下来的工作将考虑在降落过程中通过调整相机倾角使其能在降落全过程中或尽可能长时间内观察到全配置的结构化线特征,这样可以保证滚转角为0°的假设更加合理,因为固定翼类型的无人机在越靠近地面时其滚转角越接近0°。计划将相机安装在电动旋转平台上,在着陆末期将相机倾角旋转到近似平行地面的状态。利用全配置标志物对旋转过程中的序列影像进行相对定向解算,这样仍然可以解算出全局的位姿参数。

参考文献(References)[1]张才文, 周同礼. 某型无人机自动着陆轨迹研究[J]. 弹道学报, 2000, 12(2): 74-78

ZHANG Caiwen, ZHOU Tongli. On the automatic landing trajectory of anunmanned aerial vehicle[J]. Journal of Ballistics, 2000, 12(2): 74-78. (in Chinese).

[2]Kaiser M K, Gans N R, Dixon W E. Vision-based estimation for guidance, navigation, and control of an aerial vehicle[J]. IEEE Transactions on Aerospace and Electronic Systems, 2010, 46(3): 1064-1077.

[3]Mondragoón I F, Campoy P, Martiínez C, et al. 3D pose estimation based on planar object tracking for UAVs control[C]//Proceedings of IEEE International Conference on Robotics and Automation (ICRA),IEEE, 2010: 35-41.

[4]Huh S, Shim D H. A vision-based automatic landing method for fixed-wing UAVs[J].Journal of Intelligent and Robotic Systems, 2010, 57: 217-231.

[5]Cesetti A, Frontoni E, Mancini A, et al. A vision-based guidance system for UAV navigation and safe landing using natural landmarks[J]. Journal of Intelligent and Robotic Systems, 2010, 57: 233-257.

[6]于起峰, 尚洋.摄像测量学原理与应用研究[M]. 北京:科学出版社, 2009: 195-196.

YU Qifeng, SHANG Yang. Videometrics:principles and researches[M].Beijing: Science press, 2009: 195-196.(in Chinese)

[7]Shabayek A E R, Demonceaux C, Morel O, et al. Vision based UAV attitude estimation: progress and insights[J]. Journal of Intelligent and Robotic Systems, 2012, 65(1): 295-308.

[8]Dusha D, Boles W, Walker R.Fixed-wing attitude estimation using computer vision based horizon detection[C]//Proceedings of 22nd International Unmanned Air Vehicle Systems Conference, 2007.

[9]Ettinger S M,Nechyba M C,Ifju P G,et al.Vision-guided flight stability and control for micro air vehicles[C]//Proceedings of IEEE/RSJ International Conference on Intelligent Robots and Systems, 2002: 2134-2140.

[10]Sasa S,Gomi H,Ninomiya T,et al. Position and attitude estimation using image processing of runway[C]//Proceedings of 38th Aerospace Sciences Meeting and Exhibit, 2000.

[11]Frew E, McGee T, Kim Z, et al. Vision-based road-following using a small autonomous aircraft[C]//Proceedings of Aerospace Conference, 2004: 3006-3015.

[12]Kannan S K, Johnson E N, Watanabe Y, et al. Vision-based tracking of uncooperative targets[J]. International Journal of Aerospace Engineering, 2011: 1-17.

[13]Huh S, Shim D H. A vision-based landing system for small unmanned aerial vehicles using an airbag[J]. Control Engineering Practice, 2010, 18(7): 812-823.

[14]Anitha G,Gireesh Kumar R N.Vision based autonomous landing of an unmanned aerial vehicle[J]. Procedia Engineering, 2012, 38: 2250-2256.

[15]Kim H J, Kim M, Lim H, et al.Fully autonomous vision-based net-recovery landing system for a fixed-wing UAV[J].IEEE/ASME Transactions on Mechatronics, 2013, 18(4): 1320-1333.

[16]Gui Y, Guo P Y, Zhang H L, et al. Airborne vision-based navigation method for UAV accuracy landing using infrared lamps[J]. Journal of Intelligent and Robotic Systems, 2013, 72(2): 197-218.

[17]刘兴华. 基于视觉的无人机自主着陆参数提取方法研究[D]. 南京: 南京航空航天大学, 2005.

LIU Xinghua. Rearch of parameters extraction method of UAVs based on vision[D]. Nanjing: Nanjing University of Aeronautics & Astronautics, 2005. (in Chinese)

[18]高爱民, 曹云峰, 陈松灿. 一种基于视觉的微型飞行器姿态检测算法[J]. 飞机设计, 2002(4): 70-73.

GAO Aiming, CAO Yunfeng, CHEN Songcan. The scheme of vision-based attitude detection for MAV[J]. Aircraft Design, 2002(4): 70-73. (in Chinese)

[19]徐贵力, 程月华, 沈春林. 基于激光扫描和计算机视觉的无人机全天候自主着陆导引技术[J]. 航空学报, 2004, 25(5): 499-503.

XU Guili, CHENG Yuehua, SHEN Chunlin. Unmanned air vehicle′s navigation and automatic accurate landing in all weather based on infrared laser scan and computer vision[J]. Acta Aeronautica et Astronautica Sinica, 2004, 25(5): 499-503.(in Chinese)

[20]李建, 李小民, 钱克昌, 等. 基于双目视觉和惯性器件的微小型无人机运动状态估计方法[J]. 航空学报, 2011, 32(12): 2310-2317.

LI Jian, LI Xiaomin, QIAN Kechang, et al. Motion state estimation for micro UAV using inertial sensor and stereo camera pair[J]. Acta Aeronautica et Astronautica Sinica, 2011, 32(12): 2310-2317. (in Chinese)

[21]李红, 赵昊昱, 彭嘉雄. 三次样条在飞机着陆导航中的应用[J]. 华中科技大学学报(自然科学版), 2006, 34(6): 22-24.

LI Hong, ZHAO Haoyu, PENG Jiaxiong. Application of cubic spline in navigation for aircraft landing[J]. Journal of Huazhong University of Science and Technology(Nature Science), 2006, 34(6): 22-24.(in Chinese)

[22]Ettinger S M, Nechyba M C, Ifju P G, et al. Vision-guided flight stability and control for micro air vehicles[J]. Advanced Robotics, 2003, 17(7): 617-640.

[23]胡浩. 无人机进场着陆/地面滑跑控制与仿真[D]. 成都:电子科技大学, 2011: 25-26.

HU Hao. Control and simulation of UAVs′ landing and taxiing[D]. Chengdu: University of Electronic Science and Technology of China, 2011: 25-26. (in Chinese)

[24]哈特利, 齐瑟曼. 计算机视觉中的多视图几何[M]. 韦穗, 杨尚骏, 章权兵, 等, 译. 安微: 安微大学出版社, 2009: 151-152.

Richard Hartley, Andrew Zisserman.Multiple view geometry in computer vision[M]. Translated by WEI Hui,YANG Shangjun, ZHANG Quanbin, et al.Anhui:Anhui University Press, 2009: 151-152.(in Chinese)

[25]张小苗. 机载视觉着陆导航测量方法及关键技术研究[D]. 长沙: 国防科学技术大学, 2008.

ZHANG Xiaomiao. Rearch of key technology and methods of vision-landing and vision-guiding[D].Changsha:National University of Defense Technology, 2008.(in Chinese)

Vision-based landing method using structured line features of runway surface for fixed-wing unmanned aerial vehicles

ZHOU Langming, ZHONG Qing, ZHANG Yueqiang, LEI Zhihui, ZHANG Xiaohu

(College of Aerospace Science and Engineering, National University of Defense Technology, Changsha 410073, China)

Abstract:For the estimation problem of pose and attitude of fixed-wing unmanned aerial vehicles in the terminal landing stage, a vision-based landing method using structured line features was proposed. One forward looking camera equipped in the fixed-wing unmanned aerial vehicles was used to capture multiple pictures of the structured line features and these features were extracted automatically. 6 degrees of freedom pose and attitude parameters (pitch angle, yaw angle, roll angle, longitudinal position, lateral position and altitude) were calculated by using geometric constraint of full configuration structured line features in the earlier stage of the landing, the key parameters (pitch angle, yaw angle, lateral position and altitude) were calculated by using degenerate configuration structured line features (only the runway edges) in the final stage of the landing. In the 3D stimulation experiment, the accuracy of distance is less than 0.5 m, the accuracy of angle is less than 0.1°when the fixed-wing unmanned aerial vehicle is 200 m distant from the airport.

Key words:computer vision; fixed-wing unmanned aerial vehicles; landing assistant; vanish point; pose attitude estimation

doi:10.11887/j.cn.201603030

收稿日期:2015-03-18

基金项目:第57批中国博士后基金资助项目(2015M572706)

作者简介:周朗明(1985—),男,湖北武汉人,博士,E-mail:zlm_mj@126.com; 张小虎(通信作者),男,研究员,博士,博士生导师,E-mail:zxh1302@hotmail.com

中图分类号:TP391

文献标志码:A

文章编号:1001-2486(2016)03-182-09

http://journal.nudt.edu.cn

猜你喜欢

计算机视觉
基于光流技术的障碍物检测方法
无人驾驶小车定点追踪系统的设计与实现
基于深度卷积神经网络的物体识别算法
双目摄像头在识别物体大小方面的应用
机器视觉技术发展及其工业应用
危险气体罐车液位计算机视觉监控识别报警系统设计
对于计算机视觉商业化方向的研究
基于Matlab的人脸检测实验设计
现代目标识别算法综述
基于分块技术的改进LPB 人脸识别算法的研究