当前位置: 首页 > 专利查询>上海大学专利>正文

基于结构相似背景建模的运动目标检测方法技术

技术编号:12850192 阅读:77 留言:0更新日期:2016-02-11 15:18
本发明专利技术涉及一种基于结构相似背景建模的运动目标检测方法。它根据视频场景中的物体结构对光照变化具有强的鲁棒性,利用结构相似性,更新背景模型,并采用多模态特征融合策略,提取视频前景运动目标,实现复杂多变视频场景中的前景运动目标检测。

【技术实现步骤摘要】

本专利技术涉及一种,用于公共安全与防 范以及视频分析与理解。属于智能信息处理

技术介绍
随着摄像头的日益普及,大量摄像机被广泛应用于公共安全与防范以及视频分析 与理解,海量视频信息亟待处理,其中,运动目标检测是处理、分析和理解视频内容的关键 和基础。运动目标检测的运用,可以极大减少人类的工作量,从而将人类从繁重的劳动中解 放出来。 正是由于运动目标检测的重要性,使其一直受到国内外研究人员的广泛关注,而 复杂多样场景中的运动目标高效自动检测,迄今为止仍是一项极具挑战性工作。其中,运动 目标检测主要包括:背景建模和前景分割。目前,背景建模方法主要有前向型和反馈型两 种。前向型背景建模方法,由于采用统一的学习率更新背景,因而,背景模型中易引入前景 特征;反馈型背景建模方法,在识别前景的基础上对背景进行更新,但由于前景的误判,仍 然易导致背景引入前景特征中。在前景分割方面,所采用的主要特征包括:亮度、色彩、纹理 等,其中,亮度特征难有效压制阴影,而色彩特征则难有效区分伪装,纹理特征却在前景分 割时,容易产生空洞。因此,如何实现复杂多样场景中的运动目标高效自动检测,迄今为止 仍是一项亟待解决的挑战性难题。
技术实现思路
本专利技术的目的在于针对目前运动目标检测存在的问题与不足,提供一种基于结构 相似背景建模的运动目标检测方法,根据视频场景中的物体结构对光照变化具有强的鲁棒 性,利用结构相似性,更新背景模型,并采用多模态特征融合策略,提取视频前景运动目标, 实现复杂多变视频场景中的前景运动目标检测。 为达到上述目的,本专利技术的构思是:利用结构相似性,更新背景模型,并采用多模 态特征融合策略,提取视频前景运动目标。 根据上述专利技术构思,本专利技术采用下述技术方案: -种,其特征在于:根据视频场景中 的物体结构对光照变化具有强的鲁棒性,利用结构相似性,更新背景模型,并采用多模态特 征融合策略,提取视频前景运动目标,实现复杂多变视频场景中的运动目标检测;具体操作 步骤如下: 1)启动视频米集系统:米集视频图像序列; 2)背景初始化:采用前η帧图像的平均值,作为初始背景图像F ; 3)计算当前帧图像与初始背景图像的结构相似系数; 4)根据结构相似性,进行背景更新; 5)基于多模态特征融合,提取前景运动目标。 上述步骤3)的具体操作步骤如下: (1)计算当前帧图像仁与初始背景图像F之间的亮度失真S"(F,It)和对比度失真 Sv (F, It): 其中,μ JP μ 2分别是F和I t的区域均值,σ JP σ 2分别是F和I t的区域方差, σ 1ι2是F和I t之间的区域协方差,c JP c 2为常数; (2)确定当前帧图像仁与初始背景图像F之间的结构相似图M(F,I t): M(F, It) = Sn (F, It) XSV(F, It); (3)根据步骤(2)所得的结构相似图M(F,It),计算当前帧图像仁与初始背景图像 F之间的结构相似性mt:mt= (M(F,It))Y,其中,γ为常数; 上述步骤4)的具体操作步骤如下: (1)根据步骤3)获得的结构相似性系数叫,计算运动区域的反馈系数dt:d t = (l-α )dt fa (l-mt),其中,dt i为t-1时刻运动区域反馈系数,α为学习率; (2)计算当前t时刻的反馈系数β t: (3)根据步骤(2),更新背景,确定当前t时刻的背景Bt:Bt= (l-β tXa) Bt !+PtX a XIt, 其中,Bt丨为t-1时刻的背景; 上述步骤5)的具体操作步骤如下: (1)色彩空间转换:由RGB彩色空间的红R、绿G、蓝B三分量,分别确定YUV色彩 空间的亮度分量Y、色度分量U和V : Y = O. 299R+0. 587G+0. 114B U = -0. 147R-0. 289G+0. 436B V = 0. 615R-0. 515G-0. 100B ; (2)分别计算当前帧图像It的亮度分量Y t、色度分量Ut、Vt与当前t时刻的背景 Bt的亮度分量YB t、UBt、VBt之间的差距If t、cft: Ift=Ift= IYt-YBt cft:Cft= IUt-UBt I+ I Vt_VBt|,其中,I I 为绝对值运算符。 (3)计算当前帧图像It与当前t时刻的背景Bt之间的结构相似性tf t:tft = mt(It,Bt); (4)根据步骤⑵和步骤(3),分别确定初始前景运动目标的二值图mlt、mc t、mtt: 其中,HT3S阈值; (5)根据步骤(4)获得的mlt、mCJP mt t,确定最终的前景运动目标的二值图kt:k t =mtt& (mlt I mct),其中,符号"&"为逻辑与运算符,符号" I "为逻辑或运算符。 本专利技术的原理如下: 根据视频场景中的物体结构对光照变化具有强的鲁棒性,因此,可利用结构相似 图,减少基于视频场景中的物体纹理差异进行前景运动目标检测所导致的运动目标分割不 完整现象。同时,采用结构相似图,可获取当前帧图像与背景模型之间的差异情况,从而使 得利用结构相似图进行背景建模与更新可行。 根据上述原理,背景更新模型如下: Bt= (l-β tX a )Bt !+β tX a XIt 其中,1,为当前帧图像,B t i为t-1时刻的背景,α为一级学习率,β t为二级学习 率。α由视频帧率、视场中物体运动速度等因素决定,Pt可表示为: 其中,dt= (l-α )d t !+a (l-mt),mt表示当前帧和当前背景的结构相似图。 mt值越大,表明当前帧与背景模型之间的相似度越高,,则其为前景运动目标的概 率则越低,因而,需提高背景更新速度;屯代表当前运动区域的反馈系数,其值越大,则表明 存在运动或者出现新的背景物体,此时,应加快背景更新速度;d t i则为t-Ι时刻的运动区 域反馈系数。 为确定上述值,并获取视频场景中有效的前景运动目标,首先,米用初始前η帧图 像的平均值,作为初始背景图像。 按下式分别计算当前帧图像仁与初始背景图像F之间的亮度失真S "(F,It)和对 比度失真\沉1,): 其中,μ JP μ 2分别是F和I t的区域均值,σ JP σ 2分别是F和I t的区域方差, σ 1ι2是F和I t之间的区域协方差,c JP c 2为常数。 确定当前帧图像仁与初始背景图像F之间的结构相似图: M(F, It) = Sn (F, It) XSV(F, It) 根据上述所得的结构相似图M(F,It),计算当前帧图像仁与初始背景图像F之间 的结构相似性: mt= (M(F, I t)) γ 其中,γ为常数。 根据结构相似性系数mt,计算运动区域的反馈系数屯以及当前t时刻的反馈系数 其中,dt i为t-1时刻运动区域反馈系数,α为学习率。 在此基础上,更新背景,确定当前t时刻的背景: Bt= (l-β tX a )Bt !+β tX a XIt 其中,Bt i为t-1时刻的背景。 根据YUV色彩空间中亮度分量和色度分量不仅相互分离,而且可以避免相互干 扰。其中,在YUV色彩中,Y分量表示亮度信息,U和V分量表示色度信息。从RGB空间转换 到YUV色彩空间的转换公式如下: 由此分别计算本文档来自技高网...

【技术保护点】
一种基于结构相似背景建模的运动目标检测方法,其特征在于,根据视频场景中的物体结构对光照变化具有强的鲁棒性,利用结构相似性,更新背景模型,并采用多模态特征融合策略,提取视频前景运动目标,实现复杂多变视频场景中的前景运动目标检测;具体操作步骤如下:1)启动视频采集系统:采集视频图像序列;2)背景初始化:采用前n帧图像的平均值,作为初始背景图像F;3)计算当前帧图像与初始背景图像的结构相似系数;4)根据结构相似性,进行背景更新;5)基于多模态特征融合,提取前景运动目标。

【技术特征摘要】

【专利技术属性】
技术研发人员:管业鹏罗勇
申请(专利权)人:上海大学
类型:发明
国别省市:上海;31

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1