APP下载

一种城市道路场景下行人危险度评估方法

2020-12-21曾令秋马济森韩庆文叶蕾

湖南大学学报·自然科学版 2020年8期

曾令秋 马济森 韩庆文 叶蕾

摘   要:针对行人在交通场景对车辆驾驶造成的影响和辅助驾驶需要对行人进行避险的问题,提出一种基于车载单目摄像机的行人危险度评估方法.基于中国城市的特色环境,将行车环境划分为三类:普通道路、人行横道和有辅警道路,对每类场景采用不同的评估方法.采用卷积神经网络,检测视频中道路上的行人、辅警、信号灯和人行道等信息;检测行人关键点并使用多目标跟踪方法,生成骨架姿态时间序列,通过LSTM(长短时记忆神经网络)分析姿态序列获得行人行为和趋势;最后综合视频信息、行人信息和场景信息,构建行人危险评估模型,实现行人危险度评估.实验结果表明,提出的模型可以有效地评估行人危险度,辅助驾驶员安全行车,场景分类使危险模型评估结果更符合行人实际危险度.

关键词:行人安全;行人行为分析;辅助驾驶;多场景分析

中图分类号:TP399                          文献标志码:A    文章编号:1674—2974(2020)08—0042—07

Abstract:In view of the influence of pedestrians on vehicle driving in traffic scenes and the problem that the assisted driving needs to avoid the danger for pedestrians, a pedestrian hazard assessment method based on vehicle-mounted monocular cameras is proposed. Based on the characteristic environment of Chinese cities, this paper divided the driving environment into three scenarios: regular roads, crosswalks, auxiliary roads. Different risk assessment methods are used for each type of scenarios. A convolutional neural network is used to detect and identify pedestrians, auxiliary police, signal lights and sidewalks on the road in the video. Then, it detects the key points of the pedestrian and uses the multi-target tracking method to generate the time series of the pedestrian skeleton. Pedestrian behavior and trend are obtained through LSTM(Long-Short Term Memory Neural Network) analysis of posture sequences. Finally, a pedestrian hazard assessment model is  built to realize the pedestrian hazard assessment in multi road scene by synthesizing the video information, pedestrian information and scene information. The experimental results show that the scene classification makes the assessment results of the hazard model more consistent with the actual pedestrian hazard. The proposed model can effectively evaluate the pedestrian hazard and assist the drivers to drive safely.

Key words:pedestrian safety;pedestrian behavior analysis;assisted driving;multi scenario analysis

現代智能交通安全辅助驾驶系统(Safety Driving Assist System,SDAS)应用通信与控制系统技术和计算机视觉原理,可以对感知范围的行人进行分析,辅助驾驶员发现危险情况,有效降低碰撞率,对于车载驾驶系统有着十分重要的作用.其中的关键环节包括分析感知范围内的环境信息、评估场景危险程度等.

驾驶员在驾驶过程中会对视野中的行人行为的危险程度进行主观判断和分析,主观判断分析会存在一定错误,容易导致意外发生,这时需要辅助驾驶系统主动采取避让措施.通过观察行人姿势的变化来判断和预测行人可能的行为,评估汽车与行人之间的碰撞率,并做出相应的反应. 研究发现,对行人的多种属性综合考虑,可以提高行人意图分析的准确率.

基于计算机视觉算法对行人行为进行分析处理并判断行人意图是当前研究热点,学者们在行人意图分析方面,开展了相关研究工作[1]. 目前关于行人意图分析的研究大多侧重于路径预测和固定场景研究[2-3],对推广到辅助驾驶系统有一定困难.部分学者倾向于通过分析行人运动姿态的变化规律,判断行人是否有通过马路的意图[4]. 文献 [5]同样对行人姿态进行分析,得到396维的姿态特征,预测单目图像中行人过马路的意图. 文献 [6]基于详细的三维姿态信息对行人姿态骨架特征进行意图识别. 文献 [7]利用行人头肩骨骼关节的位移生成行人姿态序列来识别行人意图,对多人场景适应性较差. 文献 [8]基于身体重心和质心分析行人姿态和方向,结合空间位置检测行人穿越街道的意图.这些对行人意图的分析提供了许多不同的研究方向和思路.

由于目前关于行人意图方面的研究未考虑行车场景的划分,仅研究行人在一般道路上的过街意图,未针对道路类别进行区分,不适用于多场景下的行人行为对车辆驾驶影响的分析,如行人在人行横道过马路和一般道路上过马路的风险是不同的,并且行人、辅警和道路共同约束了人车交互的场景. 因此,本文重点研究不同道路场景中的行人行为危险评估,通过对行人危险评估模型的应用场景进行分类,包括普通道路、人行横道和有辅警道路. 结合实际行车场景中的道路信息、驾驶信息和行人行为,综合评估行人行为危险程度.

1   数据预处理

目前,辅助驾驶领域的公开数据集有很多,本文选取3种广泛应用于计算机视觉领域的数据集,用于目标检测和行人、道路信息提取,分别是目标检测领域的COCO2017[9]数据集、自动驾驶领域的BDD100K[10]数据集和JAAD[11]数据集. COCO2017数据集和BDD100K数据集包含的场景类别数量和数据规模如表1所示.

COCO2017数据集已对图像中的目标进行分割和位置标定,并对图像中的人体关键点进行标注,包含17种用于表示人体姿态的关键点信息.

BDD100K数据集包含10万张图像,每张图像来源于真实驾驶场景中的第10帧视频图像,并对道路目标、可行驶区域等进行了标注.

JAAD数据集共有346段自然行驶状态的视频,视频每秒30帧,分辨率为1 920 × 1 080. 该数据集考虑到行人行为和交通场景的复杂性,对多种因素进行注释,如不同的天气条件、行人反应、道路因素、交通场景和人口统计等等.

该数据集共标注2 700人,并对其中686人的行为状态、场景信息等细节进行了详细的标注. 本文利用686人(其中211人处于路口)的标注信息,进行图像筛选,得到132 700张仅包含行人的图像(共686段序列),每张图像记录行人ID、视频帧数、位置、遮挡、手势、反应、行动、过马路状态、过马路位置等信息. 本文对视频中的图像序列进行行人关键点的检测,得到行人的关键点位置信息,同时结合反应、手势、行走标注,生成行为的3类划分,即站立、行走、跑步. 对生成的686个行人关键点序列,进行筛选处理,删除无效检测数据并矫正较差数据,最终获取需要的行人行为的训练数据90 644张,作为行人行为模型训练和验证数据.

数据选择流程如下:

1)根据数据集中的标注信息对有详细标注的行人图像进行提取,并保留图像序列和相应标注信息.

2)通过关键点检测方法对无遮挡行人序列进行处理,获得每个序列行人的关键点信息.

3)对关键点信息进行筛选.

(a)选取有效數据,即头、肩、手、腿等明显关节处关键点信息无误检的数据.

(b)填补数据,根据前后准确帧校准数据.

(c)提取序列大于8的数据作为训练数据.

(d)对关键点坐标进行归一化处理.

4)对提取有效序列的行人标注其行为,根据详细标注,得到90 644张图,分为站立(15 261张)、行走(72 123张)、跑步(3 260张)3类.最终获得长度9的标注序列43 274条.

2   危险评估模型

本文提出的行人危险评估模型,总体框架如图1所示.

首先对交通场景中的斑马线、行车道、信号灯、辅警和行人等目标信息进行检测;然后根据检测出的道路信息对场景进行分类,分为普通道路、人行横道、有辅警道路3类;再使用deepsort[12]对行人进行跟踪,得到行人姿态的时间序列,通过LSTM(Long Short Term Memory)网络得到行人行为的分类输出,类别包括站立、行走、跑步;最后结合行人的行为、位置和道路信息,评估行人危险度.

2.1   目标检测

目标检测在智能驾驶研究中有着广泛的应用.目标检测的准确率对后续的行人跟踪和姿态评估有重要影响,最终影响行人危险度评估的准确率. 目前,目标检测方法发展迅速,已经从传统的基于滑动窗口策略的检测方法发展到当前的基于深度学习的检测方法. 由于Mask RCNN是一个实例分割架构,不仅可以检测目标,还可用于姿态估计,因此本文综合考虑实际场景,采用Mask RCNN[13]作为目标检测方法.

Mask RCNN是Faster RCNN的框架的拓展,通过在Faster RCNN网络中增加全连接网络,提升算法灵活性. 如图2所示,本文采用Resnet101网络获取主干网络图像特征,采用RPN生成建议框,采用ROI Align对建议框进行处理,最终通过FCN得到目标检测结果.

如图3所示,输入主干网络图像后获得多图层级特征,如第一行特征图像所示,特征图像的尺寸依次减小,第二行图像为通过上采样和特征融合得到的多层特征融合图像,每层特征含有不同层级的图像信息和目标检测框,经过极大值抑制选取高置信度的目标检测框,作为全连接网络的输入,得到最终目标检测结果.

在全连接网络中,添加了一个人体关键点检测分支任务,损失计算加入检测框损失、分类损失、实例损失,其中检测框损失为:

式中:x为检测框的真实值和预测值之间的差值. 分类损失和关键点损失为交叉熵损失H y′(y)的均值,表示如下:

式中:y′和y分别为真实标签和该标签输出值.目标检测对4类进行检测,分别是道路场景的人行横道、信号灯、辅警和行人. 本文对单目车载视频,每帧应用目标检测模型,得到图像中目标的位置信息,以及车道信息[14]中的行人关键点的信息. 道路场景的检测是对场景分类的基础. 行人检测在后续多目标跟踪、行人和道路位置分析、行人行为分析中有重要作用.

2.2   道路分类

在已有的行人分析方法中,主要研究行人意图,未对道路场景进行区分.本文针对不同道路场景对行人危险度的影响,以重庆为例对国内的城市道路进行分析,分别在双休日和工作日的下午14:00-18:00,记录沙坪坝区学校附近的3个路口(包含指挥情况)的过街行人数量;工作日非高峰期(下午14:00-16:00)的普通路段过街行人情况,后者由记录仪在实际行车场景记录,并纪录了违规行人的数量,具体数量见表2.

结果表明,在有辅警道路场景,过街行人数量最多,同时违规人数比例较低;无辅警道路场景,人行横道处存在较多行人过马路不遵守红绿灯,大幅超出斑马线区域的情形,而在普通道路,则极少有行人横穿马路,故将交通场景分为3类:

1)普通道路.

2)人行横道.人行横道是人车交互频繁的场景,所以本文将有人行横道的场景与一般行车时场景区分开.

3)有辅警道路.有辅警指挥的地方,行人、车辆更为密集,但双方也有更大的约束和注意力.

3种道路场景如图4所示.

2.3   行人行为检测

通过上文的行人识别,本文得到了行人检测框,以及检测框中的行人骨架节点.检测行人之后对行人进行追踪,使用获得的2D姿态数据,累积行人骨架随时间变化的骨架特征.

本文使用一种多目标跟踪方法Deepsort[12],算法主要使用两种关联关系来衡量是否匹配.

1)运动关联d (1) :使用马氏距离描述.

式中:dj表示第j个检测框的位置;yi表示第i个跟踪器对目标的预测位置;Si表示检测位置与平均跟踪位置之间的协方差矩阵.

2)外观关联d(2) :使用余弦距离度量.

对每一个dj得到一个特征向量rj(128维,基于文献[12]的方法),T为矩阵的转置,对每一个跟踪目标构建序列Ri,存储每一个跟踪目标成功关联的最近k帧的特征向量. 对两种匹配加权融合,得到关联结果Ci,j为:

由于车载视频的运行性,运动关联有较差效果,但运动关联的阈值依然有效,如果不满足关联阈值,就不能进入综合度量,这里λ = 0.1. 运动关联对短期预测特别有用;外观关联对长时间遮挡有效.

对于跟踪匹配参数,本文设置预匹配和匹配失败的阈值,如果连续9帧(0.3 s)之内没有匹配,则跟踪生成新的行人. 如果在30帧(1 s)内,行人没有高匹配分数和新的检测结果则结束跟踪.

将获得的行人的骨架节点序列,经过LSTM网络学习,获得行人行为的分类输出,包括站立、行走、跑步等. LSTM是一种特殊的循環神经网络,该网络能解决长依赖问题,适合于对序列信息进行预测.所以本文选择LSTM网络来得到行人行为分类,LSTM模型的建立如表3所示.

表3中的输入值有3维,第一维为批处理数量150,决定了每次更新网络参数的参考数据量;第二维为行为姿态序列的时间步长9,这跟本文跟踪方法中,出现新的行人确定帧数是相同的;第三维就是本文网络使用的主要关键点特征数.输出层为全连接和softmax结合,得到3种行为的分类. LSTM网络分两层,每层64个神经元.

2.4   行人危险评估

最后通过行人危险度评估模型得到行人危险值. 行人危险评估模型的分场景评估算法流程如图5所示.

模型综合了目标检测的结果,对行人信息、道路信息进行结合.考虑城市道路环境特色和行人在多种道路场景的不同反映,得到的行人危险度函数为:

式中:A(p) 是不同场景下行人行为的危险度;B(p)是在不同场景下行人与道路相对位置的危险度;p代表场景分类. 危险度设计为[0,1]之间的值,危险函数的值越接近1,表示行人具有越高的危险度,各危险度情况如表4所示.

在表4中,a、b和c代表了道路的分类,在普通道路,行为和位置有相同的影响;在人行横道,运动行人有明显的过马路意图,危险度更高;在有指挥的情况下,人车行为更规范,并且行人十分密集,检测难度高,这时位置的影响更大. A(p)代表在场景p的情况下行人站立、行走、跑步3种行为的危险度. 通过数据分析,A(a) = (0,20%,40%)表示在一般道路交通场景下行人站立、行走、跑步3种行为对应的危险度分别为0、20%、40%. B(p)为道路位置信息和行人检测框位置的相对关系,公式如下:

式中:Bpmax和Bpmin为在p场景下行人的最大危险度和最小危险度. S为图像宽度的一半;P为行人下边框中心点距侧边框的距离;R为道路位置(单侧),位置都是基于图像尺寸而得,公式中3个参数区分在图像的左右半区. 综合A(p)和B(p)得到行人在多种道路场景的危险度.

3   实验结果与分析

3.1   数据集

为了测试验证本文提出方法的有效性,采用在计算机视觉领域广泛应用的COCO2017数据集、BDD100K数据集和重庆市街景数据集,用于提取图像特征、训练目标检测模型,以及测试目标检测模型和行为危险评估模型的性能.

本文选取500张图像进行标注,标注图像中的行为、信号灯、人行横道及其类别、辅警检测框等,其中400张已标注的图像用于训练,剩余100张图像用于测试验证. 测试数据涉及80个普通道路场景,30个人行横道场景以及10个有辅警场景.

3.2   超参数设置

超参数的设置会影响Mask RCNN的效果和性能,本文设置超参数的原则是保证准确性的同时尽可能提升训练和检测速度. 本文分别针对不同的数据集设置不同的超参数,具体参数设置如表5所示.