一种交通拥堵自动检测方法
2013-10-15佘永业赵力萱罗东华李熙莹
佘永业,赵力萱,罗东华,李熙莹,余 志
(1.中山大学智能交通研究中心,广东省智能交通系统重点实验室,广东 广州 510275;2.广东警官学院,广东 广州 510230)
0 引言
当前对交通拥堵的判别主要是人工观察监控视频,给出判断,并手工输入结果。其中,轮巡监控视频是交通管理中最常采用的监控视频观察模式。如果能够在轮巡监控视频中自动、快速、准确地检测出各个路段交通拥堵状态信息,将解决自动获取视频中交通信息的问题,有助于提高视频资源有效利用率,大大减轻人工监控负担。
在基于监控视频的交通拥堵检测技术中,目前已有不少成熟的研究,其交通状态(包括交通拥挤)检测算法大致可分为3类。第一类是基于统计车辆量度的方法,是统计检测区域的车辆数量来对道路的交通状况进行评估。在其检测区域的提取方法中,常见的方法有背景差法和帧差法等。更精确的检测区域是提取道路的结构区域,常见的方法如基于颜色和边缘信息的道路结构提取方法[1]和基于纹理和形状信息的道路结构提取方法[2]等。这类方法在提取检测区域内,通过对车辆目标的提取和分割来统计车辆量度,进行交通状态评估。第二类是通过宏观交通拥堵特征参数评估进行交通状态检测的方法。在宏观交通拥堵特征参数选择上,主要采用宏观车速、车流密度[3]、排队长度等特征。如文献[4]采用视频虚拟线设定ROI,通过检测感兴趣区域(ROI)内的图像边缘占有率的大小来检测是否出现拥堵;文献[5]在MPEG视频流中利用隐高斯混合马尔可夫模型分析DCT系数和运动矢量等特征向量,然后通过最大似然准则得出交通状态决策。第三类是通过车辆间的逻辑关系判别交通拥堵的方法,主要采用车头间距和车头时距等特征,如文献[6]提出了一种根据车辆位置之间的相互关系来检测交通状态的方法。
尽管目前视频交通拥堵检测技术中的交通参数提取方法和模式识别决策上已有较为成熟的研究,但把现有方法应用于轮巡视频仍具有以下难点:
(1)轮巡视频场景是变动的,道路区域的位置不固定,则不同道路场景的检测位置是不同的,导致采用固定检测区域的方法难以使用;
(2)轮巡视频场景一般是广角拍摄的,场景天气光照条件多变,且目标车辆体积一般较小,现有的基于角点特征和跟踪方法效果[7]一般不太理想;
(3)在轮巡视频工作模式下,单路视频的显示时间有限,可以进行检测的时间也是短暂的,提取的样本特征数量少且有限;
(4)各场景拥堵决策判别方法也有所差异。
因此,针对上述轮巡监控视频模式的特点,本文提出一种对高速公路进行自适应交通拥堵检测的方法,包括3步。第一步是交通场景变动检测并自适应提取变动场景视频中的道路边界结构,通过道路边界把场景分成道路区域与非道路区域,把边界结构内的区域作为ROI,解决轮巡场景中的ROI定位问题;然后通过图像相似度匹配算法来区分交通场景是否变动,如有变动则通过车辆运动累积和霍夫变换直线检测方法提取相应的道路区域边界,并把提取道路边界结构分类。第二步是在提取的道路区域边界ROI内,提取并采用特征点边缘占有率以及车辆边缘像素的加权平均光流速度这2个对场景具有较强抗干扰性的特征作为2个宏观交通状态参数评价指标,并构造特征集。第三步是根据已定义的10种道路边界结构类型和训练样本采用支持向量机(SVM)进行训练和分类,最后对实时场景采样的边缘占有率与光流速度这2个宏观交通状态评价指标来进行决策计算与综合分析,从而实时检测出监控视频中的交通拥堵状态。
1 自适应道路边界结构提取与道路边界结构类型分类
对轮巡监控视频进行交通状态检测,需要确定视频中的道路区域,这需要对不同的交通场景进行道路结构提取操作。通常在交通场景中,车辆运动目标所在或经过的区域是道路区域。方法通过提取运动目标的运动轨迹,累积计算多辆车辆的运动轨迹即可提取该道路的道路区域范围,在道路区域范围中提取道路边界结构。
首先,提取道路区域范围。采用帧差法提取车辆目标的运动轨迹,然后对连续的帧差二值图像序列中进行累积运算,经过一段时间后,累积得到的道路区域的二值化掩模图像FRA(x,y),可由式(1)表示:
其中,ΔF't(x,y)为t时刻的帧差二值图像,TA为累积时间。
其次,在上述提取的道路区域掩模图像中提取道路区域边界。在视频图像中一条道路的边界用1组左右边界直线来描述。设道路区域掩模图像中点P(x,y)的灰度值为 F(x,y),用白色(灰度值为 255)来表示道路区域内的点,用黑色(灰度值为0)来表示道路区域外的点。本文的道路边界点的定义如下:
其中,δ为用来控制边界检测精度的阈值,通常可设为2~3个像素。
最后,在定义了道路边界点之后,通过霍夫变换[8]来对道路区域的左右边界进行检测。根据ρ=xcosθ+ysinθ计算出边界点对应的极角值θi和极径值ρi;在(ρ,θ)参数空间中找出2个最大值,则寻找出需要的2条边界直线。最后根据2条直线所处的图像位置逻辑关系,区分出左右道路边界及类型。
在交通状态检测中,由于不同轮巡场景的ROI区域是不同的,导致同一算法计算的参数特征值和决策有所区别。本文通过不同道路边界结构类型进行区分与识别。道路边界结构类型定义为S={LL,RL,CP,LBP,RBP};其中,LL 代表提取边界的左边界,LP代表右边界,CP为左右边界的交点,LBP为左边界与图像下边界的交点,RBP为左边界与图像下边界的交点。其左右边界结构内的区域为选取的ROI。本文根据CP、LBP、RBP相对图像的位置与道路结构左右对称性,把道路边界结构分为以下10种类型,如表1所示。
表1 道路边界结构类型分类
2 轮巡视频切换检测
当交通视频以轮巡方式监看时,一个通道/显示器中的场景是轮巡切换的。由于不同摄像机的场景各异,且某一摄像机场景可能因人工操作而随时出现变动,需要对这些变化进行检测。本文通过图像相似度匹配的方法检测视频的切换变动情况。
在高速公路监控视频中,拍摄的道路一般处于中间区域,周边的道路场景主要以天空、树木和建筑物为主。由于道路颜色与纹理都较为相近,不容易区分,因此本文的轮巡视频切换检测区域分为2块,如图1所示。第一块为上一次检测场景所提取的该场景道路区域Sr(网络状区域),第二块为图像的相对区域St(斜线状区域)。St包括3部分,分别为图像自上往下的三分之一区域,自左往右的四分之一区域,自右往左的四分之一区域。St区域是树木、建筑物和道路标记图像水印等信息在图像中的集中区域,具有较强的区分度。整个轮巡视频切换匹配的区域定义为Sd=∩St,即非道路区域与自定义图像相对区域的交集,如图2中的黑色区域部分所示。
图1 轮巡视频切换检测分块区域
图2 轮巡视频切换检测(黑色区域)
在轮巡视频切换检测时,对输入的不同2帧图像进行相似度匹配计算,如果匹配的相似度不高则认为是出现场景变动。相似度匹配计算方法是基于RGB颜色空间的。设当前交通场景的模板为MAllscene{R(i,j,n),G(i,j,n),B(i,j,n)},其中 R,G,B 分别对应 RGB颜色空间的红色、绿色和蓝色通道像素值,(i,j)为图像坐标,n为视频切换后的当前视频的累积总帧数。场景模板M通过学习法进行更新,保证其能适应场景的光照变化条件,如式(4)所示。
其中,α是更新系数,t为当前时刻,t-1为前一时刻,F为图像帧,场景模板大小与图像是一致的。
再设当前校验帧的像素点值为V{R(i,j,m),G(i,j,m),B(i,j,m)},当前校验点和场景模板点差值为 D(R,G,B),即 D(R,G,B)=V(R,G,B)- M(R,G,B)。当 D(R,G,B)在设定阈值区间[Tlow,Thigh]时,该点匹配成功,反之则匹配不成功。当在匹配区域Sd中匹配不成功的校验点数量大于经验阈值N则认为场景出现切换。
3 边缘占有率与光流速度的计算
在视频交通拥堵检测中,通常用交通流密度和速度强度作为客观评价的指标。图像中采用边缘特征和光流速度分别表征。边缘特征是图像中车辆的一个比较稳定的特征,图像道路区域内边缘特征点的数量能反映车辆的稠密程度,而边缘占有率方差对于道路出现饱和现象的反应比较敏感。目前常见边缘特征提取方法有 Sobel、Canny[9]和小波法等[10-11]。光流是空间运动物体在观测成像面上的像素运动的瞬时速度,通过光流法可以计算运动物体在图像中的表征速度。其中基于梯度的光流法有Horn、Lucas和Nagel等方法。
由于监控视频通常不是垂直于路面拍摄,因此视频图像中不同位置的边缘特征和光流特征的权重是不同的。本文在已提取的道路结构边界基础上,自下往上把道路边界结构分为多个尺度空间,不同尺度空间分别采用不同的权重系数a和b对边缘特征和光流特征进行加权计算。
在边缘特征计算中,图像底部靠近摄像头的车辆,由于其体积较大,可以采用约束较弱的边缘提取方法,如Sobel边缘梯度算子;对于图像顶部远离摄像头的车辆,由于车辆体积较小,则采用区分能力强的边缘提取方法,如Canny算子。在不同尺度上采用区分能力不同的边缘提取方法,则边缘占有率O的计算公式可以归一化用式(5)表示:
其中,n为划分的尺度空间数量,Si为在第i尺度空间提取的道路区域面积,ai为第i尺度空间的边缘权重系数。
在光流速度特征计算中,考虑时间复杂度和计算精度,对上述提取的边缘特征点进行光流速度值的计算[12]。光流计算采用计算精度较高的Lucas-Kanade金字塔算法[13]。设计算得到的每个边缘特征点的光流速度值为Ii,则整个交通流的加权光流速度I的计算如式(6)所示:
其中,m为提取边缘特征点总数,bi为第i尺度空间的光流权重系数。
4 交通拥堵检测决策
在道路中出现交通拥堵时,车辆较为密集且车速缓慢,在监控视频图像上表现特征为边缘占有率较高和光流速度值较小。由于2个特征具有较强的区分度,采样计算的特征值一般是线性可分的。由于轮巡视频场景中边界结构道路类型是有异的,因此对上述边界结构道路类型分别设计不同的支持向量机(SVM)分类器。SVM是一种求取分类边界的方法,通过二次凸规划求取最优解来建立一个超平面作为最优分类面,使得正例和反例之间的分类距离被最大化。设2类类别W={顺畅,拥堵},特征集向量X={0,I},本文支持向量机分类器选线性核函数作为支持向量机的内积函数进行分类。
在轮巡视频中,由于单路检测时间有限,采样计算的样本特征值个数一般有限的。如果场景中的交通流是连续的,则采样的样本数据均值是较为稳定的,其偏差不会太大;反之则说明交通流是不连续的。方法首先采用试探法对样本进行分类,如果分类类别只出现一种,说明采样的数据样本是稳定的,则可通过特征向量}进行决策,其中,n和m为样本数目。如果在轮巡时间内场景出现无车或者个别车快速通过的交通非常顺畅的情况,则场景的交通流是不连续的,样本聚类会出现2类或2类以上情况,特征值上表现为边缘占有率和光流速度值较小,则本文定义以下准则函数进行处理:
准则函数J(O,I)反映了样本间的偏离程度,当道路无车时,准则函数的值会趋于0,当个别车通过时,准则函数的值会较大,当道路交通流相对稳定时,其值会相对稳定。
整个算法流程如图3所示。
图3 算法流程图
5 实验结果与分析
为了验证算法的有效性,本文采用高速公路G4广东段的108路轮巡监控视频进行实验,涉及多种复杂道路场景,其中部分如图4所示。实验视频帧率为25fps,图像分辨率为704×576像素。光流速度计算采用相邻两帧计算,图像采样周期为1秒。在不同交通流量情况下,道路区域边界提取所需的累积时间在10~20秒之间,在视频轮巡视频切换测试中,共有105路能正常检测出视频切换,检测正确率达97.2%。
图4 实验轮巡视频样本图
图5 实验效果图
图5为一组实验效果图。图5(a)为实验原图,图5(b)和(c)为通过帧差法累积的道路二值化掩模图像,图5(d)为通过霍夫变换提取的道路边界线结构图,图5(e)中的深色点为提取的边缘特征点,图5(f)为计算并去噪后得到特征点光流图,深色箭头表示对应特征点的速度和方向。其中,当道路发生顺畅和拥堵时,根据式(5)和式(6)计算实验道路的右车道采样点特征值如表2和表3所列,特征值分布图如图6所示。
图6 特征点分布及聚类图
表2 顺畅状态下2个评价指标的分析表
表3 拥堵状态下2个评价指标的分析表
由于通过试探法对2类特征点聚类都只出现1个聚类点,如图6所示,且通过对表2与表3的数据分析所示,准则函数J(O,I)较小且不趋于0,说明采样数据是相对稳定的。在顺畅情况下,采样点边缘占有率的均值为26%,光流速度均值为2.56像素/帧;在拥堵情况下采样点边缘占有率的均值为85%,光流速度均值为1.28像素/帧,可见道路顺畅情况下,边缘占有率较低,而光流速度值较大,拥堵时,边缘占有率较高,而光流速度值较小。由于两者的聚类中心相距较远,通过SVM进行分类决策能较好的区分道路的交通拥堵情况,从而证实方法特征提取的有效性。
图7 决策分析图
最后,在道路交通拥堵情况下,对实时采集计算的特征向量测试点}进行检测,由于提取的边界结构属于已定义的道路边界类型5,采用对应的SVM进行分类决策。如图7所示,测试点能较好地被区分,说明方法能正确检测实际的轮巡视频的交通拥堵状态。
算法实验视频道路的多种复杂道路场景,如图4所示,包括白天阴天、雾天以及图像曝光过强和过弱等多种情况。在测试的108路相同规格视频中,算法都能正确有效检测出交通道路拥堵状态,检测正确率达到91.8%,单个视频场景的检测时间则不大于30秒。由于在交通拥堵的判别决策与道路边界结构类型分类有关,而道路边界结构类型取决于监控摄像机拍摄的高度和角度。如果在已定义的道路边界结构类型基础上,针对摄像机拍摄的高度和角度、道路结构边界线的倾角继续细分,算法效率和结果仍会提高。
6 结束语
针对目前人工检测高速公路交通拥堵效率较低的现状,本文提出一种用于高速公路轮巡监控视频的自适应交通拥堵检测方法。一方面,该方法结合边缘占有率与光流速度2个评价指标来检测交通拥堵,相比单一参数的检测具有更强的鲁棒性;另一方面,该方法把自适应道路边界结构提取和视频切换检测技术应用于高速公路轮巡视频来进行交通拥堵检测,能大大提高高速公路监控视频资源的利用率以及高速公路的智能化管理水平。
[1]尹建新,莫路锋.边界与区域相融合的非结构化道路检测算法[J].计算机工程,2008,34(15):217-219,222.
[2]Hui Kong J,Audibert Y,Ponce J.General road detection from a single image[J].IEEE Transactions on Image Processing,2010,19(8):2211-2220.
[3]Jianming H,Qiang M,Qi W,et al.Traffic congestion identification based on image processing[J].Intelligent Transport Systems,2012,6(2):153-160.
[4]Li Li,Chen Long,Huang Xiaofei,et al.A traffic congestion estimation approach from video using time-spatial imagery[C]//ICINIS 08,IEEE,2008:465-469.
[5]Porikli F,Li Xiaokun.Traffic congestion estimation usingHMM models without vehicle tracking[C]//IEEE Intelligent Vehicles Symposium.2004:188-193.
[6]Bauza R,Gozalvez J,Sanchez-Soriano J.Road traffic congestion detection through cooperative vehicle-to-vehicle communications[C]//2010 IEEE the 35th Conference on Local Computer Networks.2010:606-612.
[7]Nikos P,Rachid D.Active contours and level sets for the detection and tracking of moving objects[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2000,22(3):266-280.
[8]Kiryati N,Eldar Y,Bruckstein A M.A probabilistic Hough transform[J].Pattern Recognition,1991,24(4):303-316.
[9]Canny J.A computational approach to edge detection[C]//IEEE Trans.on Pattern Analysis and Machine Intelligence.1986:679-714.
[10]肖旺新,张雪,黄卫.视频交通图像自适应阈值边缘检测[J].交通运输工程学报,2003,3(4):104-107.
[11]连静,王珂,杨兆升.结合信号配准技术的小波多尺度车辆边缘检测方法[J].中国公路学报,2007,20(5):95-100.
[12]佘永业,李熙莹,赵有婷.一种车辆的宏观光流速度的计算方法[C]//第四届图像图形技术发展与应用学术会议论文集.北京,2009:315-319.
[13]Battiti R,Amaldi E,Koch C.Computing optical flow across multiple scales:An adaptive coarse-to-fine strategy[J].International Journal of Computer Vision,1991,6(2):133-145.