基于自动背景提取及Lab色彩空间的运动目标检测
2018-06-21巨志勇彭彦妮
巨志勇 彭彦妮
摘 要:常用的几种背景提取算法在车流量较大的情况下提取的背景效果较差。在某些目标检测区域较少的场景中,若将所有像素进行检测,会浪费许多时间。针对这些问题,提出一种新的背景提取算法。先将视频帧进行分割,再对分割出的检测带依次進行车辆存在检测,最终自动选取视频中没有车辆的车道块并将其拼接成完整背景帧,最后利用Lab空间色度与亮度相互独立的特性提取目标。该算法能够充分提取前景图像,不会丢失车辆目标。相比传统算法,该算法准确性较高。
关键词:背景建模;区域分割;Lab色彩空间;背景相减;形态学处理;运动目标检测
DOI:10.11907/rjdk.172791
中图分类号:TP317.4
文献标识码:A 文章编号:1672-7800(2018)005-0183-04
Abstract:The commonly-used background extraction methods may not bring about satisfactory effects in the case of heavy traffic, because a large amount of time is consumed when all of the pixels need to be detected, even though less object detection areas exist in images. To solve the problems,we propose a new background extraction method. Firstly, the video frames were divided into blocks. Secondly, vehicles were detected in those blocks through a series of processes. Then, frame lane blocks, with no vehicles detected, was selected automatically to constitute the complete background frame. Finally, objectives were extracted by using quality of independence of brightness and color in Lab color space. This method could fully extract foreground without losing vehicles and has higher accuracy comparing with other traditional methods.
Key Words:background modeling; region segmentation; Lab color space; background subtraction; morphological processing; moving object detection
0 引言
通过视频获取交通信息是计算机视觉领域的研究热点之一,有效的运动目标提取为后续的处理奠定了基础。运动目标检测方法有帧差法、光流法[1]、背景相减法[1-2]等。帧差法实时性较高,计算量小,但若目标运动缓慢,则易出现漏检现象。光流法准确性较高,但计算复杂,难以满足实时性。背景相减法因其计算量小、精度高,已成为运用较普遍的前景提取算法,常用的有多帧求平均法、统计直方图法[3]、混合高斯模型法[4-6]等。
背景相减法对运动目标进行检测步骤:①背景提取。稳定的背景能够大大减小运动区域检测的误差率,从而充分提取前景目标;②运动区域分割。通过设定好的阈值对待检测像素与背景点像素的差值分类,差值较大为运动目标,较小为背景;③前景目标检测。得到的运动区域往往不仅包含运动目标,还包含因光照不均等原因产生的图像噪声,因此要通过一定的形态学去噪,将非前景目标干扰部分去除,最终得到所需要的前景目标。
文献[7]对以背景相减法为基础的ViBe算法进行了改进,通过建立一个闪烁程度矩阵,对鬼影程度进行自适应判断,从而消除算法缺陷,使得检测率大幅度提升。文献[8]提出一种非参数的核密度估计方法,通过对每个像素点进行估计,计算其为背景像素的概率。但该算法计算量较大,占用时间较长。文献[9]提出一种color算法,将RGB空间中的像素以亮度失真和色度失真来分类,能有效将前景与阴影部分进行分离。由于RGB空间亮度、色度的非独立性导致阈值选取较难,本文通过对视频帧进行分割后,自动选取无车辆车道背景块进行拼接,以形成较稳定的背景。再将color算法转换至Lab彩色空间进行前景图像提取[10],最后进行形态学处理,得到有效的前景目标。改进的算法对车辆目标检测更准确,并且对阴影部分能够精确检测并标记。
1 改进的背景建模方法
在车流量大的交通视频中,同一位置的像素点为背景像素点的比例较小。在红灯情况下,等候红灯的车辆由于其静止或运动缓慢,通过多帧求均值或统计直方图均被当作背景提取,导致所得到的背景与实际背景相差较大。混合高斯模型法等一些基于统计模型的背景提取算法虽有较好效果,但建模时间较久。另外,图像中有很大一部分背景是非道路区域,对全部像素点建模会导致建模时间较长。
一般的交通路段都存在左转、直行、右转车道,且对不同车道采用分流行驶的方法管制交通。因此,在非交通拥堵情况下,不同车道均可能出现无车辆通行情况。由于交通摄像头摆设位置多在十字路口,会导致视频图像存在远景车辆小于近景车辆的视觉误差和路面颜色不均现象。因此,将每帧的待检测区域按车道线分为9个块,对每个车道块分别进行检测,步骤如下:①背景初始化。读取视频中的某一帧作初始背景,并选择第一个待检测车道块;②读取视频第一帧进行车道线分割,获得待检测车道;③对待检测车道进行边缘检测,计算其边缘密度。通过经验设定的阈值判断若边缘密度大于阈值,则表示有车辆存在,小于阈值则无车辆存在;④若判断车道存在车辆,则读取视频下一帧,再从第②步重复;若判断车道不存在车辆,则进行下一步;⑤将不存在车辆的车道块像素点覆盖至初始化背景中,选择第2个待检测车道块,继续循环第②步;⑥所有车道块像素点均覆盖完成后,输出背景帧background,完成背景提取。
1.1 车道线标记及分割
虽然车道均为直线,但因摄像头安置的位置会导致车道前段与后段直线角度不一致。本文选择用两点式的直线方程标定车道[11]。设两点坐标为(x1,y1),(x2,y2),则过两点的直线方程Ax+By+C=0中的系数为:
得到的车道区域如图1所示,有6条车道。
将分割开的车道线进行灰度处理后进行以下步骤:
其中A1,B1,C1,A2,B2,C2为被分割车道左右两条直线的方程系数。图2为右转车道及直行车道的前半部分效果。
2.2 车辆存在检测及图像选取
检测车辆存在的一般方法为边缘检测法[12-13]。边缘信息比背景信息波动更明显,因此检测效果很好。通过对不同边缘检测算子进行对比得出结论:roberts算子更适用于车道检测。通过roberts算子进行边缘检测的检测带中,i(x,y)像素值为255的边缘像素,非边缘像素值为0。通过统计检测区域内边缘像素总数所占检测带像素总数的比例,定义边缘密度:
通过边缘密度d设定阈值T1,使用公式(4)来判断车道内有无车辆。无车辆为0,有车辆为1。判断当前检测区域无车辆时,停止对此区域进行检测,将此帧的检测车道赋值到初始化背景中,再对下一条车道进行检测。其中,初始化背景为视频中的任意一帧。
本文前半段车道阈值T1选取在0.052 5~0.052 8之间,后半段车道阈值T1选取在0.08~0.11之间,这样能保证车道选取时均为无车辆车道。
车辆在交通路口的平均行驶速度一般为8m/s,因此在检测到车辆存在后几秒的时间段内仍有车辆存在。为了节约时间,采用按一定时间间隔读取帧的方法进行检测。由于直行和左转车道有红灯时段,当边缘密度大于一定阈值T2时(即有较多车辆排队时),可以跳过红灯等待时间,以避免非关键帧,减少检测时间,此处阈值T2选择为0.053。
图3(a)为对前100帧求平均值所得到的背景,能明显看出有车辆痕迹。图(b)为对300帧求平均值得到的背景。一部分车道效果得到优化,但直行已进入红灯等候区域,停止车辆增多,车辆像素被当作背景像素建模。
图4(a)为背景初始化提取的背景帧,图4(b)为本文自动选取无车辆帧块拼接得到的背景图像效果,可以看出无明显车辆,并且接近真实场景,效果优于其它算法。
2 改进的color算法及运动目标提取
2.1 改進的color算法
文献[9]提出了在RGB色彩空间中,将亮度与色度分开提取前景目标及阴影的算法。定义的亮度失真(α)与色度失真(CD)分别为:
其中βi为像素i的待检测像素值与背景像素值的总体差异。
由图6、图7可以看出,相比传统的背景相减法,本文算法能够更加完整地检测出车道中的所有车辆。
2.2 运动目标提取
将运动区域充分提取后,需对图像进行一系列形态学处理[14-15],以去除噪声及非目标区域。本文采用的处理方法如下:①用sobel算子对公式(9)所得到的二值图像β进行边缘检测,将目标车辆的边缘检测出来,见图8(a);②大小为2的点模板做膨胀处理,联通各边缘检测点,形成闭合区域,见图8(b);③填充闭合区域,确保后续使用开运算,在将非目标区域的噪点进行去除时不会将目标区域当作噪点去除,见图8(c);④使用大小为10的方形模板对图像做开运算,将目标运动区域保留下来,非目标区域作为噪点去除,见图8(d)。
4 实验结果及分析
实验平台为主频1.9GHz,Intel i3CPU,内存4.0G的64位Win10系统,MATLAB R2015b,所使用的视频帧速率为24帧/秒,大小为640×480的视频。检测率如表1所示。
图9为3组不同算法的结果,图9(a)为视频中读取的帧,图9(b)为帧差法,图9(c)为以多帧求平均法为背景模型的背景相减法,图9(d)为本文算法。
通过实验可以看出,在绿灯时段,帧差法可以较好地将目标车辆提取出来。但在红灯时段,停止的车辆无法被检测出来。以传统的背景相减法结合多帧求平均法提取的背景,很难检测出与背景颜色相近的车辆。本文算法在车辆行驶时段检测率高达90%以上,车辆停止时段由于车辆遮挡导致检测率下降,但仍比另外两种方法效果要好。本文算法不仅能较完整地检测出运动车辆,还能将红灯时段停止车辆及车身颜色与背景相近的车辆检测出来,比其它传统算法效果更好。
5 结语
根据前后车道段差异及车辆特性进行车道分割检测,通过自动选取无车辆背景进行拼接,从而形成最接近真实场景的背景图像。再利用Lab空间亮度与色度相互独立的特性,将运动目标区域充分提取,以确保车辆不会被漏检。实验证明,改进的方法能够充分提取视频中的远近景车辆,并且红灯时段车辆变化较小时也不会出现漏检现象。但是,由于无车辆背景选取的阈值为经验值,视频场景变化则阈值选取也要变化,为满足阈值选取能够达到自适应,算法仍需改进。
参考文献:
[1] 付浩海,边蓓蓓.基于帧间差分和背景相减的运动目标检测和提取算法研究[J].长春工程学院学报:自然科学版,2015,16(3):116-118.
[2] 陈亚东.基于视频的车辆违章行为检测研究[D].合肥:安徽大学,2015.
[3] 郭永涛,宋焕生,贺昱曜.视频交通监控系统中背景提取算法[J].电视技术,2006,30(5):91-93.
[4] 李伟,陈临强,殷伟亮.基于自适应学习率的背景建模方法[J].计算机工程,2011,37(15):187-189.
[5] ZIVKOVIC Z. Improved adaptive Gaussian mixture model for background subtraction[C].Pattern Recognition, ICPR 2004. Proceedings of the 17th International Conference on. IEEE,2004:28-31.
[6] 李劲菊,朱青,王耀南.一种复杂背景下运动目标检测与跟踪方法[J].仪器仪表学报,2010,31(10):2242-2247.
[7] 莫邵文,邓新蒲,王帅,等.基于改进视觉背景提取的运动目标检测算法[J].光学学报,2016,36(6):204-213.
[8] ELGAMMAL A, DURAISWAMI R, HARWOOD D, et al. Background and foreground modeling using nonparametric kernel density estimation for visual surveillance[J]. Proceedings of the IEEE,2002,90(7):1151-1163.
[9] THANARAT HORPRASERT, DAVID HARWOOD, LARRY DAVIS. A statistical approach for real-time robust background subtraction and shadow detection[J]. Proc Int Conf Computer Vision. IEEE Frame Rate Workshop,1999(2):1-19.
[10] JU ZHIYONG, HE XIAOLEI, WANG CHAONAN. Moving object and shadow detection algorithm using lab color space[C].International Conference on Machinery, Materials and Information Technology Applications(ICMMITA 2016),2016:79-85.
[11] 趙冉阳,张心言,吴志红.基于复式滑动窗口的车辆排队长度检测方法[J].计算机技术与发展,2015,25(11):17-22.
[12] 朱孝山,李德玉,贾俊芳.基于改进Canny边缘检测算法的车辆排队长度检测方法[J].山西大学学报:自然科学版,2011,34(3):368-373.
[13] 何芝娟,陈小雕.一种基于YUV空间的彩色边缘检测算法[J].杭州电子科技大学学报,2012,32(6):49-52.
[14] OGE MARQUES.实用MATLAB图像和视频处理[M].章毓晋,译.北京:清华大学出版社,2013.
[15] 何坤,郑秀清,张永来.纹理模糊的图像分割[J].四川大学学报:工程科学版,2015,47(4):111-117.
(责任编辑:杜能钢)