APP下载

基于深度数据的车辆目标检测与跟踪方法

2018-06-29陆德彪郭子明蔡伯根上官伟

交通运输系统工程与信息 2018年3期
关键词:激光雷达卡尔曼滤波滤波器

陆德彪,郭子明,蔡伯根,b,c,姜 维,b,c,王 剑,b,c,上官伟,b,c

(北京交通大学a.电子信息工程学院;b.轨道交通控制与安全国家重点实验室;c.北京市轨道交通电磁兼容与卫星导航工程技术研究中心,北京100044)

0 引 言

高级驾驶辅助系统(Advanced Driver Assistance Systems,ADAS)是当前智能车辆领域研究和发展的重点.对车辆行驶环境中移动目标的准确检测与跟踪是ADAS完成其驾驶任务的重要前提[1].在国内外的研究中,摄像机、毫米波雷达、激光雷达等传感器都已被广泛应用于目标检测与跟踪[2].摄像机成本低,应用简易,但基于摄像机的目标检测方法受天气等环境因素影响较大,主要应用于结构化道路中的标识检测[3]与边界识别[4].毫米波雷达由于其较长的检测距离及较窄的视场角,多用于自适应巡航系统中[5].激光雷达视场角广,能以较高的精度和分辨率提供距离信息,且不受天气等环境因素影响,将其用于目标检测与跟踪有较突出的优势.

国内外研究者们针对基于激光雷达的目标检测与跟踪问题展开了大量研究.斯坦福大学的自动驾驶汽车“Junior”采用多种激光雷达,根据目标的运动特征建模,采用模型匹配的方法完成目标的检测与识别,并利用贝叶斯滤波器分别更新每个目标的状态[6].Han等[7]对激光雷达原始数据进行分割聚类,并提取目标线段特征.之后采用联合概率数据关联滤波器对道路边界进行跟踪,该方法须计算跟踪目标与当前帧中真实目标和虚假目标之间的联合概率,计算量较大.周俊静等[8]和黄如林等[9]均采用了基于距离阈值的方法对深度数据进行分割聚类,在此基础上提取目标特征,完成目标检测.利用卡尔曼滤波器对目标运动状态进行估计,实现对运动目标的连续跟踪.甘志梅等[10]采用固定距离阈值的聚类方法,特征提取的准确性不高.但结合聚类合并算法,一定程度上克服了聚类结果对距离阈值选择的依赖性,改善了目标检测的准确性.

目前基于特征的动态目标检测方法在进行深度数据分割聚类时,根据方法的不同需要用户输入距离阈值、聚类初始位置等参数,聚类结果对于参数的选择有较强依赖性.本文采用参数自动化的网格聚类算法对每一次扫描[11]获得的原始深度数据点进行分割聚类,解决了聚类结果对参数的依赖性问题.在此基础上,利用卡尔曼滤波器和差异函数的计算完成多目标状态更新和目标关联,减少了漏检对目标跟踪造成的影响.

本文首先对要解决的问题,传感器的配置和整体方法流程进行了描述;然后介绍了目标检测的相关方法,描述了目标状态估计的过程;最后,对实验结果进行评估.

1 系统概述

1.1 问题描述

车辆行驶的道路环境中包括道路边界、树丛、车辆等目标障碍,其中,车辆目标的检测与跟踪对车辆的自主导航有直接的影响.图1显示了道路环境的一种情况,1辆汽车在道路中央,道路两侧以树丛作为道路边界.激光雷达深度数据点云存在于前方车辆尾部及道路两侧的树丛上,表示目标相对于激光雷达的距离及方位.这种情况下,需要根据车辆特征提取与车辆相关的数据点,完成车辆目标的检测及后续的目标跟踪.

图1 车身坐标系及目标点云示例Fig.1 Vehicle coordinates and example of object point clouds

1.2 传感器配置

本文选择了4线激光雷达ibeo LUX,该激光雷达能够发射4层激光脉冲,可获得更丰富的环境信息.表1给出了激光雷达的具体性能参数.

表1 Ibeo LUX参数Table 1 Ibeo LUX specifications

激光雷达安装在车辆正前方的1个支架上,距离地面高度为55 cm,如图2所示.ibeo LUX发射出激光脉冲,并接收到由环境中目标反射回来的脉冲信号,从而获得目标距离信息.本文中,车身坐标系的配置如图1所示.激光雷达给出的每一个深度数据的格式为{(xn,yn)|n=0,…,N} ,其中,xn为数据点的横坐标,yn为数据点的纵坐标,N为1次扫描获得的数据点个数.

图2 装备ibeo LUX的实验车辆Fig.2 Test vehicle equipped with ibeo LUX

1.3 方法流程

本文提出的车辆目标检测与跟踪方法流程如图3所示.

图3 车辆检测与跟踪流程Fig.3 Flow chart of vehicle detection and tracking

首先,激光雷达采集描述车身周围环境的深度数据.然后,采用基于栅格的参数自动化聚类算法(Grid-based ClusteringAlgorithm with the Parameter Automation,PAG)[12]将深度数据分割为若干聚类,并在各聚类内部利用端点迭代拟合(Iterative End Point Fitting,IEPF)算法[13]提取线段.在此基础上,根据几何特征识别车辆目标.在图1中,只有1条与车辆目标相关的线段,车辆目标位置即被该线段确定,利用卡尔曼滤波器对目标进行位置估计.

2 特征提取

2.1 聚 类

基于给出的深度数据格式,利用PAG算法实现数据的分割聚类.PAG算法的关键是对栅格参数K计算的密度阈值MinPts的定义.

假设1次扫描获得的数据点个数为Num,则栅格参数K为

数据空间被分为K×K个栅格单元,每个深度数据点都可投影到对应的栅格单元中.由此可计算得到所有栅格单元中的最大数据点个数Max和包含数据点的栅格单元的个数Gridnum.则密度阈值MinPts为

式中:N= Max,A1=Max,An=An-1-N,1<n≤N,Bm=(Am+Am+1)/2,1≤m≤N-1,C=Num/Gridnum.

若1个栅格单元中的数据点个数超过MinPts,则该单元被标记为高密度单元,否则标记为低密度单元.用这样的方式所有的栅格单元都会被标识.若1个低密度单元周围没有高密度单元,则低密度单元里的所有原始数据点被视为异常值而舍弃;若低密度单元周围存在高密度单元,则两者结合成为1个新的高密度单元.最终,相邻的高密度单元组成1个聚类.

2.2 线段提取

将各聚类中第1个和最后1个数据点连接成1条线段,然后计算这两点之前的其他数据点相对于这条线段的最大距离.若最大距离小于某一阈值,则所有数据点均可被这一条线段所表示;反之,则该线段在具有最大距离的数据点处分割为2条线段,并重复进行上述检查.

连接第1个和最后1个数据点的线段表示为

如图4所示,需要确定两端点间的其他数据点是否均可被这一线段表示.第i个数据点(xi,yi)相对于线段的距离di为

在线段提取后,采用文献[9]中的特征识别方法,根据每个聚类中的线段数目、目标形状、目标大小等特征,识别车辆目标.

图4 IEPF算法示意Fig.4 Illustration of IEPF algorithm

3 多目标状态估计

初始条件下,对每一个目标建立1个卡尔曼滤波器,利用当前的目标信息对其下一时刻的状态进行估计.考虑到道路上的目标数量随时可能改变,卡尔曼滤波器的个数也需随之改变.如图5所示,目标跟踪过程包括3个步骤:①目标关联,②滤波器管理,③目标状态更新.

图5 多目标跟踪流程Fig.5 Flow chart of multiple-object tracking

3.1 目标关联

假设k-1时刻每个目标都有与之对应的卡尔曼滤波器来估计k时刻目标的状态(中心位置).由估计的位置(xj,yj)与k时刻检测的目标位置(xi,yi)决定的差异函数为

对每个目标而言,相对于不同卡尔曼滤波器估计的差异值可由式(5)计算得到,从而获得1个最小差异值及对应的滤波器编号.若最小差异值比某一阈值小,则k时刻的该目标与k-1时刻对应的滤波器关联,并将两个时刻与此滤波器关联的目标标识为同一目标,如图6所示.

图6 目标关联示意Fig.6 Illustration of object association

3.2 滤波器管理

为避免冲突,已发生关联的卡尔曼滤波器不会与其他目标进行关联.若某目标在3.1节中计算得到的最小差异值比某一阈值大,则将其视为新目标并建立1个卡尔曼滤波器对其下一时刻状态进行估计.

在k时刻的所有目标完成关联后,若有滤波器没有与任何目标关联,则该滤波器需利用k-1时刻的信息对之后几个时刻的状态进行估计.在这段时间内,一旦有目标满足关联准则,则该滤波器仍可实现目标关联,若滤波器没有完成关联,则舍弃该滤波器.

3.3 目标状态更新

描述目标运动的卡尔曼滤波器表述为

式中:A为状态转移矩阵;H为量测矩阵;z为目标中心位置的量测值{xmym}T;V是协方差矩阵为R的量测高斯白噪声;x为状态向量,包括车身坐标系下目标中心位置横坐标与纵坐标的估计值,以及x方向和y方向的速度,即x={xvyv}T.exey

在完成k时刻的所有目标关联后,需利用目标中心位置的量测进行状态估计.

式中:Pk-为先验误差协方差矩阵;Pk为后验误差协方差矩阵;Kk为卡尔曼增益矩阵;为后验状态估计;为先验状态估计;I为单位矩阵.

各矩阵初始状态为

式中:T为连续两帧数据的时间间隔;σp为过程噪声的标准差;σm为量测噪声的标准差.通过查阅激光雷达用户手册和离线调整,σp和σm分别设为0.5 m和0.2 m.

k+1时刻的先验状态为

4 实验结果

为了验证本文提出的车辆检测与跟踪方法,选取一段校园道路进行实验.所有的检测与跟踪结果都在图1所示的车身坐标系中表示.本文设计了3种实验场景:①增加1个跟踪目标,对2个车辆目标连续跟踪,之后目标数减少;②目标被暂时遮挡;③对3个车辆目标的跟踪.

4.1 实验场景1

实验中,2个目标车辆在实验车辆前方行驶.图7给出了两车跟踪的实验场景及相关聚类和线段提取结果.图7(b)表示了两个车辆目标的跟踪过程,跟踪过程开始时右侧车辆就处于激光雷达视野中,在第26帧时左侧车辆进入视野,并在第147帧时驶出激光雷达视野.图7(c)和图7(d)给出了采用PAG算法和文献[7]中基于距离的聚类算法得到的聚类及线段提取结果,可以看出,PAG算法可有效排除环境中的异常数据点,降低对目标识别的干扰.在跟踪过程中,右侧汽车标识为目标1,左侧汽车标识为目标2.

图7 两车跟踪场景及聚类结果Fig.7 Scene of tracking two vehicles and results of clustering

如图8所示,滤波器对目标1的状态进行连续更新.在跟踪过程中,目标1在第102,148,172,177帧中没有被检测到,被黑色虚线圈出,对应x方向和y方向上的量测值为0.但滤波器利用之前的信息对目标状态进行估计,并在对应的后一时刻(第103,149,173,178帧)重新与目标1关联.尽管发生了漏检,但本文提出的方法可以避免错误关联.

图8 目标1量测值与估计值对比Fig.8 Comparison between measurement and estimation of object 1

目标2在x方向和y方向上的量测与卡尔曼滤波估计的轨迹如图9所示,可以看出,目标2在第26帧进入激光雷达视野,同时新建1个卡尔曼滤波器.在第26帧之前目标2的量测值和估计值均被视为0.在第147帧,目标2驶出激光雷达视野,对应的滤波器利用第146帧的信息对之后时刻的状态进行了估计.最终,没有目标与此滤波器关联,滤波器被舍弃.

图10显示了两个目标的估计值与量测值之间的误差.目标1由于发生4次漏检,对应时刻的量测值为0,但滤波器输出的估计值不为0,从图10(a)中可明显看出误差发生4次跳变.而目标2在跟踪过程中无漏检,误差变化幅度相对较小.两个目标在x方向和y方向上误差的均方根如表2所示.

图9 目标2量测值与估计值对比Fig.9 Comparison between measurement and estimation of object 2

图10 估计值相对于量测值的误差Fig.10 Error of estimation relative to measurement

表2 估计值与量测值间误差的均方根值Table 2 RMSs of error of estimation relative to measurement

4.2 实验场景2

图11给出了目标1被目标2逐渐遮挡的情况.跟踪开始时目标1行驶在实验车辆前方,滤波器对其进行连续的跟踪.目标2在第51帧进入激光雷达视野,随后在第62帧并入目标1所在车道,形成遮挡,导致目标1丢失.但跟踪算法保留了目标1,利用目标1消失时的状态对其进行估计.在第75帧目标1重新出现,与对应滤波器关联,恢复跟踪.

图11 跟踪过程示意Fig.11 Illustration of the tracking process

图12给出了两目标在x方向上的量测值与估计值.图12(b)中,目标2在第51帧之前的量测值与估计值均为0.图12(a)中目标1在第62~74帧由于目标2对其遮挡,量测值为0,卡尔曼滤波器利用第61帧的信息对目标位置进行估计,保证了算法在目标短暂遮挡时的适用性.

图12 x方向量测值与估计值对比Fig.12 Comparison between measurement and estimation inxdirection

4.3 实验场景3

图13(a)表示了对3个车辆目标进行跟踪的场景,在图13(b)中,本文提出的方法可准确检测出3个车辆目标.跟踪开始时对3个车辆目标进行连续跟踪,目标1在第16帧时在激光雷达视野中消失,之后不发生目标关联,图14给出了各目标y方向的量测值.

图13 3车跟踪场景及目标检测结果Fig.13 Scene of tracking three vehicles and results of object detection

图14 y方向量测值Fig.14 Measurement inydirection

5 结论

本文提出了一种基于深度数据的车辆目标检测与跟踪方法.采用PAG算法实现激光雷达深度数据的分割聚类,解决了聚类结果对参数的依赖性问题,并利用IEPF算法提取聚类中的线段从而获得目标的几何特征.最后,利用卡尔曼滤波器完成目标关联与跟踪,在跟踪目标丢失后持续估计目标状态,完成滤波器的新建、保留及舍弃.实验结果表明,本文提出的方法可较好地排除环境中杂波对目标检测的影响,目标检测准确率较高.在目标因漏检或遮挡发生丢失后,对应的卡尔曼滤波器仍可与检测出的目标正确关联,提高了容错能力,目标跟踪效果良好.

[1]PIAO J,MCDONALD M.Advanced driver assistance systems from autonomous to cooperative approach[J].Transport Reviews,2008,28(5):659-684.

[2]CHAVEZ-GARCIA R O,AYCARD O.Multiple sensor fusion and classification for moving object detection and tracking[J]. IEEE Transactions on Intelligent Transportation Systems,2016,17(2):525-534.

[3]BERTOZZI M,BROGGI A.GOLD:A parallel real-time stereo vision system for generic obstacle and lane detection[J].IEEE Transactions on Image Process,1998,7(1):62-81.

[4]SOTELO M A,RODRIGUEZ F J,MAGDALENA L.VIRTUOUS:Vision-based road transportation for unmanned operation on urban-like scenarios[J].IEEE Transactionson IntelligentTransportation Systems,2004,5(2):69-83.

[5]WENGER J. Automotive radar status and perspectives[C].Compound Semiconductor Integrated Circuit Symposium,IEEE,2005.

[6]PETROVSKAYA A,THRUN S.Model based vehicle detection and tracking for autonomous urban driving[J].Autonomous Robots,2009,26(2/3):123-139.

[7]HAN J,KIM D,LEE M,et al.Enhanced road boundary and obstacle detection using a downward-Looking LIDAR sensor[J].IEEE Transactions on Vehicular Technology,2012,61(3):971-985.

[8]周俊静,段建民,杨光祖.基于雷达测距的车辆识别与跟踪方法[J].汽车工程,2014,36(11):1415-1420.[ZHOU J J,DUAN J M,YANG G Z.A vehicle identification and tracking method based on radar ranging[J].Automotive Engineering,2014,36(11):1415-1420.]

[9]黄如林,梁华为,陈佳佳,等.基于激光雷达的无人驾驶汽车动态障碍物检测、跟踪与识别方法[J].机器人,2016,38(4):437-443.[HUANG R L,LIANG H W,CHEN J J,et al.Lidar based dynamic obstacle detection,tracking and recognition method for driverless cars[J].Robot,2016,38(4):437-443.]

[10]甘志梅,王春香,杨明.基于激光雷达的车辆跟踪与识别方法[J].上海交通大学学报,2009,43(6):923-926.[GAN Z M,WANG C X,YANG M.A method for vehicle tracking and recognition based on scanning laser radar[J].Journal of Shanghai Jiaotong University,2009,43(6):923-926.]

[11]STEIN D,SPINDLER M,KUPER J,et al.Rail detection using LIDAR sensors[J].InternationalJournalof Sustainable Development and Planning,2016,11(1):65-78.

[12]邱保志,张西芝.基于网格的参数自动化卷聚类算法[J].郑州大学学报(工学版),2006,27(2):91-93.[QIU B Z,ZHANG X Z.Grid-based clustering algorithm with the parameter automatization[J].Journal of Zhengzhou University(Engineering Science),2006,27(2):91-93.]

[13]BORGES G A,ALDON M J.Line extraction in 2D range images for mobile robotics[J].Journal of Intelligent and Robotic Systems,2004,40(3):267-297.

猜你喜欢

激光雷达卡尔曼滤波滤波器
手持激光雷达应用解决方案
基于深度强化学习与扩展卡尔曼滤波相结合的交通信号灯配时方法
法雷奥第二代SCALA?激光雷达
从滤波器理解卷积
基于激光雷达通信的地面特征识别技术
卡尔曼滤波在信号跟踪系统伺服控制中的应用设计
基于激光雷达的多旋翼无人机室内定位与避障研究
开关电源EMI滤波器的应用方法探讨
一种微带交指滤波器的仿真
基于递推更新卡尔曼滤波的磁偶极子目标跟踪