碰撞预判系统中车辆宽度和位置的测量方法
2016-04-21李沛雨张金换
罗 逍,姚 远,李沛雨,杨 帆,张金换
(1.清华大学,汽车安全与节能国家重点实验室,北京 100084; 2.汽车噪声振动和安全技术国家重点实验室,重庆 401120)
2016029
碰撞预判系统中车辆宽度和位置的测量方法
罗 逍1,姚 远2,李沛雨1,杨 帆1,张金换1
(1.清华大学,汽车安全与节能国家重点实验室,北京 100084; 2.汽车噪声振动和安全技术国家重点实验室,重庆 401120)
为进一步提高碰撞预判系统的判断精度,提出了一种基于雷达和图像融合的车辆宽度和位置测量方法。首先,确定雷达坐标系与图像坐标系之间的转换关系;然后根据图像中目标的阴影或雷达探测目标在图像中的投影生成目标假设区域;通过Haar特征车辆级联分类器对生成的目标假设区域进行验证;最后对验证过的目标进行宽度和位置测量。试验结果表明,该方法能较准确地测量车辆宽度和位置,为碰撞预判系统提供重要参数。
汽车安全;碰撞预判系统;车辆识别;宽度和位置测量
前言
碰撞预判系统作为高级驾驶员辅助系统的重要组成部分之一,能够利用包括毫米波雷达、激光雷达和摄像头等环境感知传感器探测驾驶过程中本车周围环境的变化,并根据相对位置和相对速度等关系判断不可避免的碰撞事故,进而控制制动系统进行制动,驱使被动安全保护机构对乘员执行保护动作,从而实现更好的碰撞保护。碰撞预判系统能够合理地利用汽车主、被动安全系统已有的资源,降低乘员在碰撞事故中头部、颈部等部位的伤害水平[1]。
目前,碰撞预判系统使用的传感器包括毫米波雷达、激光雷达和摄像头,但无论是单独使用一种传感器还是使用多种传感器融合的方法[2-3],临撞时间(time to collision,TTC)的计算在碰撞预判系统中对于正面碰撞的判断都至关重要[4-5]。然而,在实际情况中部分驾驶员面对紧急情况更倾向于采取转向避让动作而非单纯制动,在这种情形下只考虑临撞时间的碰撞预判算法可能会误触发后端的被动安全保护机构。因此,如果能够获得前方车辆的宽度和横向位置信息,综合考虑驾驶员驾驶习惯,将能使碰撞预判算法对碰撞的判断更加准确。此外,获得前方车辆宽度和位置信息能更加准确地判断碰撞位置,使得被动安全保护机构能够针对将要发生的碰撞事故优化控制策略,对乘员实现更好的约束。通过对相关文献的调研,未见测量前方车辆宽度的相关方法。本文中采用毫米波雷达和图像信息融合的方法进行车辆目标识别,并通过图像测量的方法计算前方车辆的宽度和位置信息,并与毫米波雷达测得的信息对比。试验表明,该方法能较准确地测得前方车辆宽度和位置信息,为碰撞预判系统提供数据。
1 车辆目标图像识别方法
1.1 目标假设生成
基于图像的车辆目标识别方法中的两个主要步骤是生成目标假设和验证目标假设[6]。在目标假设生成过程中,算法对摄像头获得的图像进行搜素,寻找车辆具有的典型特征,如对称性、车辆底部阴影、车辆边缘和车辆的特殊纹理等[7]。由于在灰度图中车辆底部阴影的灰度值相对于路面的灰度值会产生突变,因此可以用来作为生成车辆目标假设的依据。本文中使用车辆底部阴影特征在图像中生成车辆目标假设;采用毫米波雷达作为传感器搭建了系统,将毫米波雷达探测的目标投影到图像中用来生成目标假设,以弥补光照条件不足时,车辆底部阴影不明显而导致无法生成车辆目标假设的缺点。
本文中选取车辆前方临近道路上两小块区域的平均灰度值作为基础阈值Tbasic,根据实际图像处理效果总结出经验公式,计算原始灰度图二值化阈值Tgray和水平边缘图的二值化阈值Thoriz。
(1)
其中原始灰度图通过摄像头直接采集得到,水平边缘图由原始灰度图经过水平索贝尔算子处理后得到。得到原始灰度图和水平边缘图阈值后,对两幅图像进行二值化处理。图1(a)为原始灰度图;图1(b)为对原始灰度图的二值化处理结果,其中不仅包括车辆底部阴影,还包括树木、建筑物的阴影和其他灰度较深的物体;图1(c)为水平边缘图二值化处理结果,包括车辆底部阴影在内;图1(d)为图1(b)和图1(c)进行与运算处理结果,获得两幅图像中的共同部分,去除了部分干扰;图1(e)是在图1(d)的基础上提取的轮廓信息,但仍难以避免一些较大的阴影区域的干扰;图1(f)在原始图像上生成了车辆目标假设区域,包括前景的车辆和背景的树荫,但未能将全部干扰去除。
1.2 目标假设验证
使用特征对目标进行分类识别比通过像素进行计算速度更快[8],而且可以通过对有限数量的样本进行训练获得对目标所拥有知识的编码。本文中使用Haar特征[9]对车头和车尾外观特征进行表征。图2描绘了3种基本的Haar特征,其中图2(a)和图2(b)双矩形特征表征水平和竖直的边缘特征,图2(c)的三矩形特征表征竖直线的特征,图2(d)的四矩形特征表征角点特征。
为了验证目标假设,使用AdaBoost算法[10]构建了由15个弱分类器串联而成的强分类器。分类器训练过程中使用的正样本包括车辆尾部和车辆正面图像,通过网络下载和实际道路拍摄获得,左右镜像处理后正样本集合包括1 300多张照片。另外,在负样本集合中选取车辆行驶过程中周围环境经常出现的目标,如路面、房屋和树木等,共1 500余张照片。进行目标假设验证时,在已生成的目标假设区域以36×24大小的窗口遍历整个目标假设区域进行搜索,然后放大搜索窗口继续搜索,直至检测完整个目标假设区域。分类器将被认为是目标的物体以矩形框的形式返回,对这些矩形框进行合并处理,并将合并得到的外包矩形框底边拉至与阴影区域底边重合,作为后续测量工作的基准。整个车辆目标图像识别方法经过实际上路测试,识别率达到88.8%,误识别率为7%。
2 车辆宽度和位置的测量
2.1 测量方法
毫米波雷达能够较为准确地测量车辆的纵向相对距离,但是测量车辆的横向相对位移误差较大,而且不能测量车辆的宽度。因此,须要通过图像对车辆横向位置和宽度进行测量。路面水平假设是进行图像测距的前提,为了进行图像测距并且能够将雷达探测目标投影在图像中,须要建立图像坐标系、雷达坐标系和车辆坐标系三者之间的相互转换关系[11],其中雷达坐标系和车辆坐标系关系为
(2)
式中:Lx和Ly分别为雷达坐标系坐标xr和yr相对于车辆坐标系坐标xv和yv在x和y方向上的偏移距离。图像坐标系与车辆坐标系之间的转换关系为
(3)
式中:H为摄像头光心相对地面的高度,θ为摄像头光轴的俯仰角,Cx和Cy为光心偏移误差,fx和fy为摄像头在x和y方向的焦距。利用式(3)可以通过对图像中的车辆目标进行测量,获得在实际中车辆的位置信息和宽度信息。
2.2 融合算法
毫米波雷达和摄像头探测原理不同,各有优缺点,为了使两种传感器发挥各自的长处,本文中设计了一种如图3所示的融合算法。算法中分别以车辆底部阴影和雷达探测目标投影点在图像中生成目标假设,对于相互遮挡的目标假设区域保留距自车较近的区域。然后,利用Haar特征分类器对目标假设区域进行识别,被确认为车辆目标者,采用图像测距方法计算车辆的宽度和位置信息。如果图像测量得到的纵向位置信息和雷达测得的纵向位置信息出入较大,则利用雷达测得的纵向位置信息对摄像头的俯仰角度进行补偿,然后再计算车辆宽度和横向位置信息。
3 试验验证
为了检验该算法的有效性,本文中在包括本车车道和左右相邻车道在内的3条车道上分别进行了实车动态测试,包括本车道内同向行驶情况和相邻车道内同向与反向行驶情况,如图4(a)所示。试验中车辆纵向距离以雷达测量值为准,同时为了获得真实的车辆横向距离,试验中试验车辆一律紧贴路面标识线行驶,试验中具体情况如图4(b)所示。
试验结果显示,通过图像测量得到的车辆纵向距离与雷达探测得到的纵向距离吻合较好,如图5(a)所示。横向距离测量中,3次试验结果分别为0,-1.7和3.75m,如图5(b)中实线所示,从试验结果中可以看出,雷达测量得到的车辆横向距离误差较大且结果不稳定,图像测量得到的车辆横向位置较为准确,结果也较稳定。测量误差与目标车辆在图像中的位置有关,车辆目标在图像边缘处由于镜头畸变会导致较大的测量误差。目标车辆最宽处车宽约为1.77m,但是试验中图像测量的是车辆前端和尾端处的宽度,经测量约为1.65m,与试验中测得车辆平均宽度1.6m相差无几。在车辆尾部或车辆正面曲面过渡的地方分类器不能完全识别车辆尾部或车辆正面信息;图像多为斜向采集,得到的并不是车辆正向图像;车辆目标在图像边缘处,镜头畸变较大等原因是车辆横向位置和宽度测量误差及测量结果不稳定的主要原因。在进行车辆宽度测量时,可以通过对多次测量值求平均的方法减小误差。此外,通过找目标对称轴、提高分类器性能等方法也可以提高对车辆目标宽度和横向位置的测量精度。
4 结论
利用毫米波雷达和摄像头生成目标假设,通过Haar特征分类器识别车辆,根据小孔成像原理计算车辆位置和宽度信息,并使用雷达探测得到的纵向距离对图像测量信息进行修正,得到了较为准确的车辆宽度和位置信息,为碰撞预判系统判断决策提供更丰富、准确的信息,为优化后端被动安全执行机构提供依据。
[1] SCHOENEBURG R, BREITLING T. Enhancement of Active & Passive Safety by Future PRE-SAFE Systems[C].2005 ESV Conference, Washington DC, 2005.
[2] PIETZSCH S, VU D T, BURLET J, et al.Results of a Precrash Application Based on Laser Scanner and Short-range Radars[J]. Intelligent Transportation Systems, IEEE Transactions on, 2009, 10(4): 584-593.
[3] ALESSANDRETTI G, BROGGI A, CERRI P.Vehicle and Guard Rail Detection Using Radar and Vision Data Fusion[J]. Intelligent Transportation Systens, IEEE Transactions on, 2007, 8(1): 95-105.
[4] TU P, KIANG J. Estimation on Location, Velocity, and Acceleration with High Precision for Collision Avoidance[J]. Intelligent Transportation Systems, IEEE Transactions on, 2010,11(2): 374-379.
[5] KIM T, JEONG H. Crash Probability and Error Rates for Head-on Collisions Based on Stochastic Analyses[J]. Intelligent Transportation Systems, IEEE Transactions on, 2010,11(4): 896-904.
[6] SUN Z, BEBIS G, MILLER R. On-road Vehicle Detection: a Review[J]. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 2006, 28(5): 694-711.
[7] 顾柏院, 王荣本, 郭烈,等. 基于机器视觉的道路上前方多车辆探测方法研究[J]. 汽车工程, 2006,28(10): 902-905.
[8] VIOLA P, JONES M. Rapid Object Detection Using a Boosted Cascade of Simple Features[C].Computer Vision and Pattern Recognition, Proceedings of the 2001 IEEE Computer Society Conference on, 2001, 1:511-518.
[9] PAPAGEORGIOU C P, OREN M, POGGIO T. A General Framework for Object Detection[C]. Computer Vision, Sixth International Conference on. 1998, 1: 555-562.
[10] FREUND Y, SCHAPIRE R E. Experiments with a New Boosting Algorithm[C]. International Conference on Machine Learning, 1996: 148-156.
[11] 罗逍, 姚远, 张金换. 一种毫米波雷达和摄像头联合标定方法[J]. 清华大学学报(自然科学版), 2014,54(3):289-293.
Vehicle Width and Position Measurement Method for Pre-crash System
Luo Xiao1,Yao Yuan2, Li Peiyu1, Yang Fan1& Zhang Jinhuan1
1.TsinghuaUniversity,StateKeyLaboratoryofAutomotiveSafetyandEnergy,Beijing100084; 2.StateKeyLaboratoryofVehicleNVHandSafetyTechnology,Chongqing401120
To enhance the judgment accuracy of pre-crash system, a measurement method of vehicle width and position based on radar and image fusion is proposed. Firstly, the transformation relationship between radar coordinate and image coordinate is determined; Then, the object hypothesis region is generated based on the shadow of vehicle object in the image or the projection of vehicle object in the image detected by radar, and the objective hypothesis region generated is verified by Haar-like feature classifier; Finally, the width and position of vehicle objects verified are measured. Test results show that the method proposed can accurately measure the width and position of vehicle, providing important parameters for Pre-crash system.
vehicle safety; pre-crash system; vehicle identification; width and position measurement
原稿收到日期为2014年9月17日,修改稿收到日期为2014年12月23日。