APP下载

基于背景差分的视频运动对象检测

2018-03-19姚文沙萱

电脑知识与技术 2018年4期

姚文 沙萱

摘要: 视频图像序列中,对运动目标分割的主要目的是能够提取出有意义的运动对象实体。背景差分法能够较好地检测视频图像序列中的运动目标。确定可靠的背景图像是该算法的关键。在安检系统视频图像序列的行李检测中应用此法,初步获得运动目标,并根据当前帧利用一种背景更新算法以获得可靠的背景。然后做一些后期图像处理,去除噪声,取得了较好的效果。最后对实验结果进行了分析并提出相应的改善计划。

关键词: 背景差分;运动检测;背景更新

中图分类号:TP18 文献标识码:A 文章编号:1009-3044(2018)04-0161-03

Moving Video Objects Detection Based on Background Subtraction

YAO Wen1, SHA Xuan2

(1.Troops 94789 PLA, Nanjing 210018, China; 2. Southeast University Chengxian College, Nanjing 210088, China)

Abstract: The main purpose of motion segmentation in video serial images is to extract representative moving objects. The background subtraction method can detect moving objects in image sequence efficiently. Extraction of the stable background is the key problem of this algorithm. By using this method in the video image sequence of the security inspection system to detect the baggage, the moving objects can be obtained first. Then use a background update algorithm to update the background according to current frame. Some latter image process is done followed to eliminate noise, which got a better result. Finally some analysis on the experiment results was given and corresponding optimal plans were suggested.

Key words: background subtraction; motion detection; background update

近年來,视频运动对象的检测及跟踪技术在各个领域都得到了广泛的研究和应用,本文主要针对通过安检机上的行李包裹视频图像序列进行检测及跟踪。在客流高峰期,通过火车站、汽车站内安检机的行李往往比较拥挤,容易出现误拿行李现象,而一旦某行李箱或包裹里存在危险品,正确判断危险品的归属者是非常重要的,故需对安检机出口处的行李进行必要的检测与跟踪。

目前比较流行的运动对象检测方法有背景差分法 [1][2]、帧差分法[2]和光流法[3]。很多学者在这些算法的基础上派生出一系列适用于不同场景的运动分割算法[4][5]。背景差法是三种方法中最直接、最简单的方法,对实时性要求比较高的场合更加适用;帧差分也比较简单;光流法计算量比较大,不适合实时性要求较高的场合。由于安检机出口处的背景相对比较单一、固定,所以本文仅讨论背景差分法在实时行李运动检测中的应用。

1 主要算法介绍

1.1 背景差分法概述

背景差法(BS)是在视频运动对象检测中最早被广泛应用的方法之一。背景差法是在背景图像已知的情况下,计算背景图像与当前图像的差值图像,通过对差值图像取门限来检测出运动目标。设当前图像和背景图像分别为F和B,则运动目标MO检测如下:

(1)

其中T为检测门限。背景差法的结果示例见图1。

在安检机视频监视应用中,摄像头是静止不动的,并且安检系统也是固定的,仅传送带和行李出口处的档板变化,而传送带颜色均匀,可认为是不变的,所以整个背景变化也不大,则背景差法应用在此处可以起到较好的效果。但在实际应用中还需注意以下几个问题:(1)背景特征的确定(如像素灰度值、色度或纹理等);(2)虽然理想背景的变化很小,但当背景由于出现各种不确定运动目标时,如何更新背景;(3)门限T的选取。

1.2 背景更新算法

本实验的背景更新部分采用Surendra算法[6]。该算法原理是把每幅当前帧的像素点分为前景点和背景点。当前帧中的背景点像素值和背景图中的对应点加权平均,作为当前背景中像素值。前景点处则保持原来的背景值不变。该算法的核心在于通过直方图统计和经验取值而区分当前帧中的前景点和背景点。它能够较快地适应背景场景的变化,实现实时更新。其算法可以分以下几步:

(1) 将第1帧图像I0作为背景B0;

(2) 选取阈值T,迭代次数m=1,设定最大迭代次数为;

(3) 求当前帧与前一帧的差分图像

(2)

(4) 由二值图像Di更新背景图像Bi,即

(3)

其中和为背景图像和差分二值图像在的灰度值;为输入的第i帧图像;为迭代速度系数;

(5) 迭代次数,返回(3),当迭代次数时结束迭代,此时可视为背景图像。

2 运动行李检测

首先读入视频序列图像,以第一帧为初始背景。然后逐帧读取,依次处理每帧图像。对当前处理的图像运用背景差法,初步获得二值前景图像。对于所获得的二值图存在的噪声比较大,一些非目标区域可能会被误判为目标区域,所以对目标图像进行形态学滤波是有必要的。对目标图像依次进行腐蚀和膨胀运算,滤掉一些噪声,有利于提取出正确的运动目标。最后判断运动行李的连通性,用矩形框标注目标。

在处理的同时,进行实时背景更新,对行人或光照条件对背景的影响起到了一定的抑制作用。

本文中背景差阈值T的选取通过迭代阈值分割算法确定。

將RGB图转换为灰度图时,运用了以下转换公式:

(4)

其中,Gray(x, y)为转换为灰度图像后的像素灰度值;R为RGB图像的红色分量值;G为绿色分量值;B为蓝色分量值。

在运动行李检测实验中,背景更新运用公式(3),取值定为0.03时效果效为理想。图2为运动行李检测的主流程。

3 实验结果及分析

根据上文所述方法,对拍摄的安检机实验视频序列图像进行处理,部分实验结果如图3所示。其中,图(a)为视频原始帧;图(b)为经过背景更新后的背景图像(其中初始背景图像为视频第1帧);图(c)为背景差分处理结果,二值图像的白色部分为运动行李目标。

可以看出,对于图3-2的这类前景与背景灰度对比相差较大的情况,能够清楚地将运动目标提取出来,结果比较理想。而对于图3-3,从原始帧图像(a)可以看出,位于安检机传送带上的行李箱与传送带颜色较为相近,导致通过灰度信息区分前景与背景的效果比较差,只能提取出部分目标。图3-4显示了多个运动目标的实验结果。图中多个目标存在重叠现象,这便引入了另一个问题:在用矩形框标注运动目标时,如何判断重叠部分的归属。

图4列出了运动行李目标行标注的结果。图4-1与图4-2的结果与理想结果一致;图4-3没有区分出两个运动对象,将它们误判为一个运动对象。图4-4行李之间靠得太近或者重叠时,由于二值图像的前景块之间还存在一定的联系,很难明确地区分开,所以,判断出来的连通区域的外接矩形就包括了几个相连的物体,出现误判,这是在今后的研究工作中必须改进的地方。

4 结束语

本文通过对所拍摄的安检机视频序列图像运用基于背景差分的视频运动对象检测算法,实现了对运动行李的检测。详细讨论了实现过程,并对实验结果进行了分析,找出了该方法用于这种情况下的优缺点。由于场景背景基本是不变的或变化比较小,所以在背景差分法的基础上运用实时背景更新,得到了比较好的实验结果。但是,对于论文中提到的几个问题,将是今后工作的重点所在。在今后的研究工作中,将综合运用时空联合运动对象分割算法,并对运动行李的去向进行跟踪,判断各对象的归属,以进一步完善整个系统。

参考文献:

[1] Stringa E, Regazzoni CS. Real-time video-shot detection for scene surveillance applications[J]. IEEE Transactions on Image Processing,2000,9(1):69-79.

[2] 邓玉春, 姜昱明, 张建荣. 视频序列图像中运动对象分割综述[J].计算机应用研究,2005(1):8-11.

[3] Horn BKP, Rhunck BG. Determining optical flow[J]. Artificial Intelligence,1981(17):185-203.

[4] 曾炜. 视频运动对象分割算法研究[D]. 哈尔滨工业大学,2005.

[5] 杨文凯. 序列图像中运动目标的检测[D]. 西北工业大学,2004.

[6] Surendra G, Osama M, Robert F K, et al. Detection and classification of vehicles[J].IEEE Transactions on Intelligent Transportation Systems, 2002,3(1):37-47.