基于混合高斯模型的储物柜存取货行为检测方法
2015-05-13林淦斌
林淦斌
摘 要:针对储物柜存取货物场景的实际情况和人员行为的特点,提出一种通过融合时间调整机制控制前景融入背景的改进型混合高斯建模检测方法,并引入手臂识别机制。融合时间调整机制减小了由于人员停止运动而错误决策为背景的可能性;手臂識别算法模型有效地识别人员伸手动作。实验结果表明,该方法可以简单有效地从连续的图像序列中检测出人员在储物柜场景下的存取货物行为。
关键词:混合高斯模型 时间调整机制 手臂识别 存取货行为检测
中图分类号:TP391 文献标识码:A 文章编号:1674-098X(2015)01(c)-0052-03
储物柜场景存取货物行为检测的主要任务是从连续的图像序列中判别出从运动到静止于储物柜前并伸出胳膊打开储物柜存取货物的人员。传统监控应用场景下,摄像头常开记录下每一个时刻摄像头覆盖区域的画面;然而,当事件未发生时候所获取的视频往往没有任何价值而又无差别地占用了存储空间,且长时间处于工作状态下的摄像头功耗较大。储物柜场景下,通常关心的是储物柜中的货物是否被误取,因此只需有人员打开储物柜事件发生时触发摄像头记录存储当前时刻视频以供翻查佐证。基于该应用场景,检测系统需要实现两个功能:首先,如何把从运动到静止于储物柜前的人员从图像序列中提取出来;其次,如何从提取出来的人员前景图像中判别人员是否有伸出胳膊动作从而触发摄像头录像并存储。
根据储物柜存取货物场景的实际情况和人员行为的特点,本文改进传统的混合高斯模型,提出一种通过融合时间调整机制控制前景融入背景的改进型混合高斯建模检测方法,并引入手臂识别机制,具体检测流程如图1所示。实验结果表明该方法有良好的鲁棒性和自适应性,可用于储物柜场景存取货物行为检测。
1 改进型混合高斯背景模型
1.1 混合高斯背景模型
背景模型对目标的识别和跟踪至关重要。目前已有的大多数背景提取算法或基于静态背景,或计算复杂,难以应用于光照缓慢变化和背景存在小幅度重复运动视频的实时处理。其中,背景差法[1]对环境的变化(如光照等)较敏感,且分割精度易受噪声影响。帧差法[2]不能完全提取出所有相关的特征像素点,在运动实体内部容易产生空洞现象。光流法[3]需要多次迭代运算,时间消耗大。混合高斯模型[4]由于采用多个高斯分布加权建模,能够描述像素值分布的双峰或多峰状态,对背景的自适应性高,在时空效率都适中的情况下能提供相对精确的背景模型,而引起了众多从事目标检测与跟踪[5-6]、视频监控[7]等相关领域的专家和学者的关注。
单高斯背景模型(Single Gaussian Background Model,SGBM)的基本思想是:将图像中每一个像素点的颜色值看成是一个随机过程X,并假设该点的某一像素值出现的概率服从高斯分布。混合高斯背景模型(Gaussian Mixture Model)是在SGBM中将单个高斯分布作为相应某一像素值的概率密度分布,对其进行了扩展,通过多个高斯概率密度函数的加权平均来平滑地近似任意形状的密度分布函数。令I(x,y,t)表示像素点(x,y)在t时刻的像素值,则有
其中α为学习率,取值在0~1之间。如果第i个高斯分布与当前像素匹配,则Di,t=1,否则Di,t=0。
1.2 基于融合时间调整机制的背景模型
储物柜场景中经常存在人员突然停止并长时间站立在某柜子前的情况,混合高斯模型很难正确检测出运动速度缓慢的物体,尤其当运动目标突然停止运动时,容易把静止目标融入背景。本文根据该场景的特点,对传统的混合高斯模型进行了改进,具体步骤如下:
背景学习阶段——由于储物柜场景中背景相对固定,不会经常发生变化,所以可以在背景学习阶段赋值很高的学习率α快速建立背景;而且,该阶段中越靠前出现的图片帧是背景的可能性越大,因此算法中设置越靠前的图片帧学习率越大,并设置一个学习周期。
背景更新阶段——储物柜场景中时常会出现人员突然停止并长时间站立在某柜子前的情况,因此该阶段算法中通过设置很小的学习率来避免将静止的人员融入背景。
通过如上所述的融合时间调整机制,可以十分简便且有效地控制储物柜场景中前景融入背景的时间。
1.3 实验结果
为了检验算法的有效性,在VC++2010平台下,分别对传统混合高斯背景模型和本文改进方法进行实验。实验数据所拍摄视频片段每帧图像大小为640×480像素。视频流中进入场景的人员在363帧停止行进站立于储物柜前进行操作,直到597帧之后继续有大幅度动作。图2为部分实验结果,图纵列分别表示363帧、390帧、420帧和596帧的前景提取结果。对比实验结果可以看出该文方法可以正确检测出长时间静止人员。
2 手臂识别算法模型
2.1 算法流程
手部识别算法是基于站立在储物柜前人员的高斯前景图像进行分析的。根据前景提取结果经由数学形态学平滑处理后,对每一个目标利用“爬虫法”[8]提取出目标外接矩形框作为兴趣区域,随后对区域内前景进行手部识别。具体算法分析流程如下:
在高斯前景图像上,对矩形框区域进行分析;
在矩形框区域,对高斯前景图像做X轴和Y轴投影;
在X轴的投影上,分析投影的柱状图取阈值thr(thr可根据实际情况训练调试),将柱状图中各柱体同thr比较,提取出小于thr的柱子X坐标;
分析上一步提取出的柱子,检测其连通性,提取出连通区最长的一段,认为该段就是手臂;
分析最长段的两端,如果一端柱状图明显高于另一端,那么就认为该端是身体躯干部分,另外一端是手部。
2.2 实验结果
依据上述算法流程,实验结果分别选取一帧进行显示,效果图如图3所示。图中红色方框表示所识别到的胳膊部分,黄色方框表示在胳膊基础上进一步识别到的手部大致位置。实验结果表明,该算法可以有效地从提取出来的人员前景图像中判别人员是否有伸出胳膊动作。
3 结束语
该文提出一种通过融合时间调整机制控制前景融入背景的改进型混合高斯建模检测方法,并引入手臂识别算法模型。融合时间调整机制控制了前景融入背景的时间,减小了由于人员停止运动而错误决策为背景的可能性;手臂识别算法模型有效地识别人员伸手动作。实验结果表明,这套方法可以简单有效地从连续的图像序列中检测出人员在储物柜场景下的存取货物行为。
参考文献
[1] Haritaoglu I,Harwood D, Davis L S G.A human body part labeling system using silhouettes[C]//Fourteenth International Conference on Pattern Recognition,1998:77-82.
[2] 洪炳熔,贺怀清.虚拟人的步行和跑步运动控制方法的研究[J].高科技通讯,2001(3):91-95.
[3] Meyer D,Denzler J,Niemann H.Model based extraction of articulated objects in image sequences for gait analysis[C]//Proc IEEE International Conference on Image Processing,Santa Barbara,California,1997:78-81.
[4] 李志慧,张长海,曲昭伟,等.交通流视频检测中背景模型与阴影检测算法[J].吉林大学学报:工学版,2006,36(6):993-997.
[5] 王勇,谭毅华,田金文.基于阴影消除和混合高斯模型的視频分割算法[J].光电工程,2008,35(3):21-25.
[6] 彭可,陈燕红,唐宜清.一种室内环境的运动目标检测混合算法[J].计算机工程与应用,2008,44(5):239-241.
[7] Pavlidis I,Morellas V,Tsiamyrtzis P,et al.Urban surveillance system:From the laboratory to the commercial world[J].Proceedings of the IEEE,2001,89(10):1478-1497.
[8] 崔凤魁,张丰收,白露,等.二值图像目标邻域点法边界跟踪算法[J].洛阳工学院学报,2001,22(1):28-30.