双背景模型自适应运动目标检测算法在交通监控系统中的应用研究
2020-05-11成亚玲彭湘华谭爱平
成亚玲 彭湘华 谭爱平
摘 要: 针对现有运动目标检测算法不能满足复杂场景需求,提出一种基于高斯混合模型和时间平均模型改进的双背景模型自适应运动目标检测算法。对视频图像背景进行简单背景和复杂背景自适应判别,并建立相应的背景模型。双背景模型获取的运动目标区域信息更完整、清晰。实验表明,与传统检测算法相比,新算法在去除区域孔洞、目标区域完整性具有较好性能和优越性。
关键词: 智能交通; 目标检测; 阴影抑制; 高斯模型; 双背景自适应模型
中图分类号: TG409 文献标志码: A
Applcaton of Dual Background Model Adaptve Moton
Target Detecton Algorthm n Traffc Montorng System
CHENG Yalng, Peng Xanghua TAN Apng
(School of nformaton Engneerng, Hunan ndustry Polytechnc, Changsha 410208, Chna)
Abstract: Because the exstng movng target detecton algorthm cannot meet the complex scene requrements, an mproved movng target detecton algorthm based on Gaussan mxture model and tme-average model s proposed. The algorthm performs smple background and complex background adaptve dscrmnaton on the vdeo mage background, and establshes the correspondng background model. The movng target regon nformaton obtaned by the dual background model s more complete and clearer. Experments show that compared wth the tradtonal detecton algorthm, the new algorthm has better performance and advantages n removng regonal holes and ntegrty of the target regon.
Key words: ntellgent transportaton; Target detecton; Shadow suppresson; Gaussan model; Dual background adaptve model
0 引言
隨着社会快速发展,智能交通系统(ntellgent Transportaton Systems,简称TS)在旅游出行、车辆识别以及平安城市等方面提供全方位信息,在人们生活工作中的作用日益凸显。在智能视频监控系统中, 运动目标检测与跟踪是实现其智能化工作的基础[1]。同时,视频图像处理技术是智能交通视频监控系统中比较重要的一个技术领域。视频图像处理技术通过对监控图像序列进行智能分析、判别场景中运动目标的行为,并对交通道路中出现异常情况做出及时的反应。
1 研究现状
1.1 智能交通系统研究现状
智能交通系统是近年来交通运输发展的热点问题之一。自第一届智能交通系统世界大会至今,欧美日等过在TS方面投入较多,成果凸显。如,2001年欧盟年颁布了欧洲运输政策白皮书,对交通事故进行主动预防等;计划2013年在所有大型车辆安装车道偏离预警、紧急制动系统等主动安全措施。2009年美国,建立了智能交通环境,提高其交通系统的安全性[2] [3]。日本在TS方面自1960年代大力发展智能交通系统。我国自20世纪90年代,TS受到政府、科研机构和企业的关注。从国家战略角度,由国家科技部牵头联合多部门全面规划智能交通发展。
1.2 运动目标检测技术研究现状
大力发展运动目标监测相关技术有利于我国TS标准制定、改造和完善城市交通管理系统、发展公共交通系统等业务。基于视频的运动目标检测技术受到社会各界广泛关注。如实时视觉监控系统W4[4],对室外多人环境下的活动进行检测、跟踪、定位,并通过建立模型实现跟踪与检测。国际上各权威期刊如PAM、WVS等都对基于视频的运动目标检测技术进行了相关研究。在TS中,运动目标检测技术主要包含视频图像预处理、运动目标检测、运动目标追踪、目标行为识别和场景理解描述等方面内容。其中,运动目标检测是目标跟踪、行为理解、场景理解等后期处理的基础。运动目标检测方法核心理念是利用目标相对于场景的运动,将目标从背景中分离处理,实现运动目标的检测。从研究文献来看,现有的检测方法通常有帧间差分法[5]、光流法[6]、背景差减法[7]等。现有运动目标检测算法各有优缺点,但共同的缺陷是对目标阴影不能很好的进行有效抑制。所以,对运动目标阴影进行有效抑制是运动目标检测技术的一个重要研究方向。
国内学者对运动目标阴影抑制研究主要有两类:基于模型的阴影抑制和基于属性的阴影抑制。虽然国内学者对运动目标的背景也进行了建模研究[8],如,高斯混合模型、卡尔曼估计模型等,但运动目标检测算法在复杂场景下并不完美。针对在TS中交通道路视频监控画面背景复杂、系统实时性要求高、检测出运动目标难度大等现实困境,本文对复杂背景运动目标检测算法进行改进,提高系统实时性、准确性,改善检测效果。
2 双模型自适应背景建模方法改进
2.1 运动目标检测技术基础
运动目标检测是后续运动目标追踪、行为分类、行为识别等操作的基础。视频监控图像运动目标检测包括图像预处理、图像分割、特征提取、判决分类等环节,如图1所示。
在TS中,图像传输和转换会导致图像部分质量下降,运动目标图像预处理通过技术手段对图像质量进行还原与改善。图像质量的改善,目前有图像增强和图像复原两大类技术,而在TS中通常使用变换域和空间域[9]两种图像增强技术。
图像分割即把图像分割成多个差异明显的区域,并提取感兴趣的目标 [1]。通常将运动目标图像中感兴趣的部分图像称之为前景或目标,其它称为背景。目前常用的图像分割有基于区域、基于边缘检测和基于特定理论等3种分割技术[10]。
运动目标特征提取,关键在于特征的选取及特征识别。在TS中通常采用具有唯一性、鲁棒性等多个组合特征来识别图像。基于模式特征不同选择、判决方法不同,运动目标判决识别一般有结构模式、模糊模式、统计模式三种识别模式[11]。
2.2 运动目标检测技术算法研究
运动目标检测其核心思想是从视频监控图像频序列中,将变化区域的运动目标圖像从背景中较完整提取出来。由于受光照、天气等外界影响,导致运动目标的正确检测有很大困难。目前常用的检测技术方法有光流法,帧间差分法,背景差减法等。
光流法,描述空间运动物体动态行为与表面结构的信息,适用于瞬时速度场景。光流的计算有基于匹配(基于区域、基于特征进行定位跟踪)、频域(通过滤波进行相位或频率输出)、梯度(采用序列的时空微分计算光流)的3种方法。改方法由于受阴影、噪声等影响,精确度低复杂度高,难以满足实时性检测需求。
帧间差分法,对运动目标检测虽然具有自适应性强、鲁棒性好等特点,但是其应用场景要求具备噪声较小、背景基本无变化、目标速度不为零且目标区域亮度变化明显等特性,导致对动态目标进行跟踪时必须采用如块匹配法、坐标变换法等对全局运动作出补偿才能达到较好的检测效果。在帧间差分算法中典型代表为双差分方法,该方法在差分图像基础上进行二次像素相乘处理,其计算公式如式(1)—式(3)。DK-1(x,y)=|K(x,y)-K-1(x,y)|
(1)
DK(x,y)=|K+1(x,y)-K(x,y)|
(2)
TK(x,y)=1DK(x,y)≥T∩DK-1(x,y)≥T
0DK(x,y)(3) 帧间差分算法中的区域差分法利用空间信息消除噪声影响,其运算为式(4)。HK(x,y)=∑(x,y)∈AHK(x,y)
(4)
DK-1(x,y)=|HK(x,y)-HK-1(x,y)|
(5) HK(x,y)为模板区域内图像像素灰度和,A为模板区间。
背景差减法,将背景模型与输入视频图像对比,通过对比其灰度特征或直方图统计信息变化来分割运动目标并判别异常情况。其工作流程图2所示。
背景差减法利用当前背景帧与当前帧进行差值后得到图像。假设图像序列第H帧在像素(x,y)的灰度值为H(x,y),用BH(x,y)表示其背景灰度值,那么其背景差图DH(x,y)、二值TH(x,y)结果是式(6)、式(7)。DH(x,y)=|K+1(x,y)-BK(x,y)|
(6)
TH(x,y)=1DH(x,y)≥thresh
0DH(x,y)(7) 在(7)中,thresh为二值化的阀值,当TK(x,y)=1时,表示其为当前图像与一部分被误判成前景的噪声。背景差减法可以检测不运动的物体,但其收天气、光线等条件影响较大,同时因背景更新导致算法复杂性和实时性不能完全满足现实需求。
2.3 TS中视频监控背景建模研究
在TS中,运动目标检测首要任务是准确获取背景图像,并为后续各种高级操作奠定基础。但是,在现实场景中经常存在背景树叶、树枝的扰动、早中晚光照变化、天气影响、背景更新等因素影响。目前背景建模算法主要有模型法和非模型法两类自适应背景提取及更新方法。模型法通过为背景中每个像素点建立一个独立的背景模型,提取背景图像。模型法采用自适应更新机制较好适应交通道路背景变化。如,高斯混合分布模型就是采用自适应更新机制,并能较好适应交通道路背景变化来提取背景图像。背景模型的建立通常包含背景初始化、背景更新两个步骤。在背景初始化算法中典型算法有时间平均模型、高斯混合模型以及像素估计等3种方法。时间平均模型法(TAM),基于某时间序列的视频图像,对其取平均值,得到背景估计值。该算法简单,复杂度低,但存在前景、背景容易混淆、图像不清晰、准确率不高等缺点。像素估计法,即从过去的视频序列中对每个像素的背景值进行估计,典型的方法有时间中值法[12] [13]。高斯混合模型法(GMM),高斯混合模型法所建立的模型为像素级模型,图像中每个像素点都有自己的独立模型,对TS视频监控图像中任何一像素点(x,y),其灰度值在一定时间内构成一个时间序列,如图3所示。
在缓慢变化的场景下,视频监控图像中的像素点在过去一定时间内样本灰度值时间序列分布都可以用一个高斯混合模型来进行定义或描述。因视频图像中每个点都有其相依的模型参数,进而可以准确表达各像素点不同的分布情况,最终完成背景的准确提取。
2.4 双模型自适应背景建模方法改进
由于视频背景中颜色分布的差异性很大,其对背景模型精细程度要求也不相同。由于传统背景建模方法中像素颜色分布在时间上的时变性和在空间上的不一致性,导致模型在计算量小背景简单、计算量大且精细背景要求的实际应用过程中存在不少困境。鉴于上述传统模型存在的问题,本研究将基于双模型思路对分布范围窄且取值范围不确定性小的背景建立简单模型;对亮度范围分布宽且取值不确定性大的背景建立精细模型,以此来提高算法的精确度。双模型算法在高斯混合模型和时间平均模型的基础上进行改进,具体包括以下步骤:
2.4.1 划分视频监控区域
监控区域划分,即将背景图像通过熵图像划分成独立不交叉的监控区域,并从中选取代表性检测区域级监控点。在监控点选取时尽量选择区域中心附近的像素点。如,时间监控图像初始画面尺寸大小为a×b,坐标为(x, y)的像素表示为Px,y。进行熵图像计算时,选取m×m为小区域尺寸,熵图像尺寸为a′×l′,其中,a′=a/n,′=a/n。熵图像中坐标为(x′,y′)的像素表示为Px′,y′ ,与熵图像对应原始图像中m×m小区域用R x′,y′表示。如果监测区域的尺寸是m′×m′,则共有n″×b″个监测点,其中,n″=n/m′,b″=n′/m′。第(x″,y″个监测点表示为Px″y″,第(x″,jy″)个监测区域为R x″,y″,表示包含mm′×mm′个原始视频监控图像中的像素。
2.4.2 监测点亮度分布更新
在某时刻t,像素P x′,y′,欲更新其亮度分布直方图,需确保应用于R x′,y′的原始视频中m×m个像素点在t时刻全部来自背景图像,否则将不予以更新。假设时间标签t为当前图像序列时刻,t′是激活直方图更新过程的起始。分别用D x′,y′,c(t′)和H x′,y′,c(t′)表示监测点Px′,y′经过t′次更新后的直方圖和视频分布,如式(8)、(9)。D x′,y′,c(t′)=[b x′,y′,c,l(t′)…b x′,y′,c,g(t′)]T
(8)
Hx′,y′,c(t′)=[b′ x′,y′,c,l(t′)…b′ x′,y′,c,g(t′)]T
(9) 上式中,g表示灰度级数目,b x′,y′,c,z(t′)表示D x′,y′,c(t′)的第L个箱格的概值,b′ x′,y′,c,z(t′)表示H x′,y′,c(t′)的L个箱格中样本数。
2.4.3 监测点灰度值计算
根据熵的定义和性质,在更新模块周期内,可以获取熵图像在时刻t的红蓝绿三个通道上的亮度分布直方图。即式(10)。FN x′,y′,c(t)=-∑8q=1b x′,y′,c,q(t)log2b x′,y′,c,q(t)/log2g
(10) FN x′,y′,c(t)∈A[0,1],可以将三个通道上归一化的熵值分别用FN x′,y′,R(t)、FN x′,y′,G(t)、FN x′,y′,B(t)表示,令式(11)。FN x′,y′(t)=max{FN x′,y′,R(t),FN x′,y′,G(t),FN x′,y′,B(t)}
(11) 将FN x′,y′(t)按照式(12)映射到(0-255)灰度值并取整,获得熵图像上Px′,y′的灰度值FN x′,y′(t)如式(12)。FN x′,y′(t)=[255 FN x′,y′(t)]
(12)2.4.4 监测区域更新决策
检测区域中除监测点外其它像素点只有在其亮度分布出现较大改变时才被启动更新,通过不断更新Px″y″ 像素点的归一化熵值,并对其灰度值进行计算、判断其它像素点是否发生较大变化。假设用S x″,y″(t)表示t时刻监测区域更新决策模块的二值逻辑输出信号,即式(13)。Sxm,yn(t)=1,|Fxm,yn(t)-Fxn,ym(t)|>ε1
0,|Fxm,yn(t)-Fxn,ym(t)|≤ε1
(13) 在式(13)中,Sxm,yn(t)等于0时表示不更新,当Sxm,yn(t)等于1时表示启动更新算法。
2.4.5 熵图更新终止逻辑
由于抽样位置对归一化熵值的增量(ΔFNx′,y′(t′))影响比较大,所以不能用简单用熵值的增量值是否非常小而决定应不应该对分布更新进行终止操作,通常可以用R滤波器对某时间序列熵值增量进行平滑处理,经过平滑出来后能科学合理地判定是否终止更新。如式(14)。
ΔFNSx′,y′(t′)=
c0t′=0
(1-γ)ΔFNSx′,y′(t′-1)+γΔFNSx′,y′(t′),t′t′≠0
(14)
在式(14)中,c0为滤波器初始值,γ为平滑参数,对ΔFNSx′,y′(t′)用阀值法来判定是否更新,即式(15)。S′ x′,y′(t′)=1,ΔFNSx′,y′(t′)<ε2
0,ΔFNSx′,y′(t′)≥ε2
(15) 在式(15)中,ε2为判决阀值,S′ x′,y′(t′)表示t′次更新时间,更新终止逻辑对点Px′,y′的输出逻辑值。当S′ x′,y′(t′)=1时,断开开关停止P x′,y′更新,当S′ x′,y′(t′)=0时,表示继续更新。
2.4.6 背景复杂度判断逻辑
背景复杂度判断逻辑通常根据每个像素熵图像的灰度值来决定采取哪种背景模型。如在t时刻背景图像中的每个像素点Px,y对应一个灰度值Fx,y(t),即式(16)。Px,y=∈A(t),FNx,y(t′)<ε3
∈(t),FNx,y(t′)≥ε3
(16) 在式(16)中ε3为判别阀值,A(t)和(t)表示高、低复杂背景点的集合,通过该公式可以判别像素点属于简单背景或复杂背景区域。
2.4.7 简单背景模型
简单背景模型通常采用时间平均模型的方法进行背景更新,其更新过程为式(17)。μ(x,y)=(1-α)μt-1(x,y)+αXt(x,y)
(17) 在式(17)中,μ(x,y)为参考背景图像中像素点(x, y)的t时刻值,α为模型的学习速度,Xt(x,y)为像素(x, y)在t时刻的观测值。在t+1时刻,若像素满足式(18),那么它就属于背景,否则它属于前景。式(18)中‖‖为向量范数,thresh为判别阈值为式(18)。‖Xt+1(x,y)-μt(x,y)‖(18)2.4.8 精细背景模型
利用高斯混合模型,将背景图像中每个像素亮度分布用N个高斯函数来近似,其表达为式(19)。P(Xt)=∑N=1w,tδ(x,μ,t,∑,t)
(19) 在式(19)中,权值w,t必须满足∑N=0w,t=1,μ,t为均值向量,∑,t为协方差矩阵。在复杂精细背景模型中首先要确定代表背景的高斯模型有多少个(用B表示),通常做法是先找出背景分布的高斯分量,再将N个高斯函数值从大到小排序,取前面B个作为代表背景高斯模型,即式(21)。B=arg mn(∑b=1w,t>T)
(20) 在式(20)中,T为设定的阀值参数。当某像素观测值Xt+1到来时,若B个高斯函数中任何一个满足式(21),那么表示该像素P在t+1时刻为背景,否则将其判决为运动目标。在式(21)中,λ通常默认值为2.5。如式(21)。‖Xt+1-μ,t‖<λσ,t, ∈1,2,…,B
(21)3 实验仿真与结果分析
在仿真实验中,在高斯混合模型(GMM)和时间平均模型(TAM)基础上,改进双模型运动目标检测,视频采用地方交通运输部门视频,视频原始帧为25帧/秒,图像尺寸为320×240。实验仿真中,GMM的方差、均值和权值学习速度均为0.002 5,阀值参数ε1为25,ε2为4×10-5,平滑参数γ为0.15。TAM均值学习速度为0.003,决策阀值为20。
实验视频图像序列如图4所示。
由于树叶的晃动造成动态阴影以及周邊车辆的干扰,导致背景图像具有较强的动态性。
图4为原始图像,图5为高斯混合模型(GMM)处理结果,图6为时间平均模型(TAM)处理结果,图7为双模型自适应算法处理结果。
从图5、图6、图7可直观看出,时间平均模型和高斯混合模型法都存在目标信息不完整和车身区域空掉较多等问题;而利用本研究的双模型自适应算法检测的目标信息交完整且相对清晰,具体各种方法的参数对比见表1所示。
通过实验发现在双模自适应算法中对ε3取值为130时效果最好,当ε3值变大时,虽然检测速度增加了,但是检测效果却并没有显著提升。
4 总结
本章提出了一种基于高斯混合模型(GMM)和时间平均模型(TAM)来改进双模型自适应运动目标检测算法。相比传统算法,本算法可根据场景中不同区域自适应选用不同的模型,以提高算法的准确性和性能。通过实验及参数比较,表明本研究算法具有较好性能和优越性。
参考文献
[1] 石明丰,王玲,张会勇.静止成像平台近景视频运动目标检测与跟踪[J].世界科技研究与发展,2013,35(1):62-64.
[2] Hamll A.A Topology—Based Approach to the Predctve Analyss of ntellgent Transportaton Systems Dynamcs[C]. New Technologes Moblty and Securty 5th nternatonal Conference, stanbul, 2016(10):1-5.
[3] Aldona Jarastuncne. Research nto ntellgent Transport Systems (TS )technologes and Effcency[J]. Transport,2010,22(2):61-67.
[4] Hartaoglu ,Harwood D,Davs L.W4:Real-tme survellance of people and ther actvtes[J].EEE Trans. on Pattern Analyss and Machne ntellgence,2009,22(8):809-830.
[5] Chen N,Dng F.Flame Object Segmentaton by an mproved Frame Dfference Method [C].2012 the Thrd nternatonal Conference on Dgtal Manufacturng and Automaton.Guangx,2015(8):422-425.
[6] Sakano H. A Sem transparency-Based Optcal-Flow Method wth a Pont Trajectory Model for Partcle-Lke Vdeo[J]. EEE Transactons on mage Processng,2012,21(2):441-450.
[7] ntachak T, Kaewapcha W. Real-tme llumnaton feedback system for adaptve background subtracton workng n traffc vdeo montorng[C].2015 nternatonal Symposum on ntellgent Sgnal Processng and Communcatons systems.Japan(Nagoya),2015(8):1-5.
[8] Gallego J, Pardas M,Haro G Bayesan foreground segmentaton and trackng usng pxel-wse background model and regon based foreground model[C]. Proc. of the 16th EEE nternatonal Conference mage Processng, Caro,2012,16(4), 3205-3208.
[9] 乔玲玲. 图像分割算法研究及实现[D].武汉:武汉理工大学,2009.
[10] Nkh R, Pal.A revew on mage Segment Technques[J].Patter Recognton,2003,26(9):1277-1291.
[11] 金聪,郭京蕾. 人工智能原理与应用[M].北京:清华大学出版社,2013.
[12] Long W,Yang Y.Statonary background generaton:An alternatve to the dfference of two mages[J].Pattern Recognton,2014,23(12):1351-1359.
[13] 杨艳.智能交通中运动目标检测与跟踪算法研究[D].昆明:昆明理工大学,2016.
(收稿日期: 2018.12.12)
基金项目:湖南省教育厅科研项目(15B072)
作者简介:成亚玲(1981-),女(回族),上海青浦人,副教授、软件设计师,硕士,主要研究方向:软件工程、模式识别和人工智能。
彭湘华(1985-),男,株洲人,讲师、软件设计师,硕士,研究方向:数据挖掘。
谭爱平(1979-),男,株洲人,副教授、网络工程师,硕士,研究方向:数据挖掘。文章编号:1007-757X(2020)01-0036-05