基于多级过滤模型的密集场景人群分群检测算法制造技术

技术编号:14146984 阅读:110 留言:0更新日期:2016-12-11 04:00
一种基于多级过滤模型的密集场景人群分群检测算法,涉及图像分析技术领域,所解决的是提高分群检测效果的技术问题。该算法在高斯混合模型的背景去除法得到的前景区域提取KLT特征点,通过分析特征点的运动特性,采用时空距离邻近过滤算子、速度方向过滤算子以及运动相关性过滤算子逐级过滤,遍历所有前景中的特征点,实现分群检测。本发明专利技术提供的算法,适用于视频图像分析。

【技术实现步骤摘要】

本专利技术涉及图像分析技术,特别是涉及一种基于多级过滤模型的密集场景人群分群检测算法的技术。
技术介绍
密集场景中的人群运动分析、群体事件及异常行为检测是当前智能监控研究领域的热点课题,也是视频监控系统和智能交通研究的重要方向之一。在维护社会治安、提高城市交通规划的科学性等方面都有重要的研究价值。通常密集人群运动场景中,人群普遍表现为一种无规律的运动组合形式,即无序运动。这种复杂的特性大大地增加了研究的难度,因此之前也较少有研究成果涉及。针对密集场景的传统分析思路为将场景看作目标的运动集合,以实现提取目标轨迹及行为识别的目的。其处理方法有两类,一类是基于目标中心对象的处理方法,另一类是基于场景的处理方法。基于目标中心对象的处理方法将密集人群看作大量个体的集合,从个体分析角度出发提取其速度和方向,然后采用加权的连接图或由底向上的多层聚类方法实现群体检测;这种算法的有效性保证条件为目标聚集密度低,目标个体的像素分辨率高。但无序运动密集场景中人群之间遮挡非常严重且遮挡关系通常未知,导致目标的正确分割成为一个难点,因此分群效果较差。基于场景的处理方法主要有光流法、动态纹理和网格粒子等,这些算法对于密集人群中存在严重遮挡问题的场景及复杂运动模式场景的处理效果较差,而且还需要对单个行人进行分割以及样本训练,需要事先提供一些先验信息;而且邻域特征点的稳定性较差,分群检测效果有待进一步提高。
技术实现思路
针对上述现有技术中存在的缺陷,本专利技术所要解决的技术问题是提供一种对密集人群中存在严重遮挡问题的场景及复杂运动模式场景的处理效果好,而且不需要对单个行人进行分割以及样本训练,不需要事先提供先验信息;而且邻域特征点的稳定性好,分群检测效果好的基于多级过滤模型的密集场景人群分群检测算法。为了解决上述技术问题,本专利技术所提供的一种基于多级过滤模型的密集场景人群分群检测算法,其特征在于,具体步骤如下:S1)对目标视频图像,先采用混合高斯模型对每一个图像帧进行背景建模,再采用背景差法对每一个图像帧的前景、背景进行分割,从而得到每一个图像帧的前景区域;S2)对目标视频图像,采用KLT跟踪算法从每一个图像帧的前景区域中提取特征点,从而得到每一个图像帧的特征点坐标集;S3)对每一个图像帧的特征点坐标集,将该特征点坐标集中的各特征点逐一的作为目标点,并按照步骤S3.1至S3.9的方法获取每个目标点的初始同群点集,最终获得的各个目标点的初始同群点集构成该图像帧的初始同群点集序列;获取目标点的初始同群点集的步骤如下:S3.1)从ζt中取一个特征点作为目标点i,并设定为目标点i的最近邻域,其中,ζt为目标视频图像中的第t个图像帧的特征点坐标集;S3.2)计算目标点i与ζt中的各特征点的高斯权值,具体计算公式为: w i , j = exp ( - d i s t ( i , j ) r ) = exp ( - ( x i - x j ) 2 + ( y i - y j ) 2 r ) ]]>其中,wi,j为目标点i与特征点j的高斯权值,j∈ζt且j≠i,(xi,yi)为目标点i的坐标,(xj,yj)为特征点j的坐标,r的取值为20;S3.3)对ζt中除目标点i之外的每个特征点实施时空距离邻近过滤,过滤方法为:对ζt中的任意一个特征点j,j∈ζt且j≠i,如果有wi,j ≥0.5wmax,则将特征点j归入其中的wmax为目标点i与ζt中的其它特征点的高斯权值中的最大值;S3.4)设定为目标点i在t→t+d之间的邻域交集,其中的d=3;S3.5)计算中的各个特征点与目标点i从t→t+d的速度夹角,具体计算公式为: θ i , j = 1 d + 1 Σ τ = t t + d a b s ( θ i τ - θ j τ ) ]]>如果且则令如果且则令如果或则令如果且则如果且则如果或则其中,θi,j为特征点j与目标点i从t→t+d的速度夹角,d=3,为特征点j在目标视频图像中的第τ个图像帧的速度方向,为特征点j在目标视频图像中的第τ个图像帧的坐标,为特征点j在目标视频图像中的第τ+1个图像帧的坐标;为目标点i在目标视频图像中的第τ个图像帧的速度方向,为目标点i在目标视频图像中的第τ个图像帧的坐标,为目标点i在目标视频图像中的第τ+1个图像帧的坐标;S3.6)对于中的任意一个特征点j,如果有θi,j≥45或(360-θi,j)≥45,则将该特征点j从中剃除;S3.7)计算中的每个特征点与目标点i从t→t+d的运动相关性,具体计算公式为: C 本文档来自技高网...
基于多级过滤模型的密集场景人群分群检测算法

【技术保护点】
一种基于多级过滤模型的密集场景人群分群检测算法,其特征在于,具体步骤如下:S1)对目标视频图像,先采用混合高斯模型对每一个图像帧进行背景建模,再采用背景差法对每一个图像帧的前景、背景进行分割,从而得到每一个图像帧的前景区域;S2)对目标视频图像,采用KLT跟踪算法从每一个图像帧的前景区域中提取特征点,从而得到每一个图像帧的特征点坐标集;S3)对每一个图像帧的特征点坐标集,将该特征点坐标集中的各特征点逐一的作为目标点,并按照步骤S3.1至S3.9的方法获取每个目标点的初始同群点集,最终获得的各个目标点的初始同群点集构成该图像帧的初始同群点集序列;获取目标点的初始同群点集的步骤如下:S3.1)从ζt中取一个特征点作为目标点i,并设定为目标点i的最近邻域,其中,ζt为目标视频图像中的第t个图像帧的特征点坐标集;S3.2)计算目标点i与ζt中的各特征点的高斯权值,具体计算公式为:wi,j=exp(-dist(i,j)r)=exp(-(xi-xj)2+(yi-yj)2r)]]>其中,wi,j为目标点i与特征点j的高斯权值,j∈ζt且j≠i,(xi,yi)为目标点i的坐标,(xj,yj)为特征点j的坐标,r的取值为20;S3.3)对ζt中除目标点i之外的每个特征点实施时空距离邻近过滤,过滤方法为:对ζt中的任意一个特征点j,j∈ζt且j≠i,如果有wi,j≥0.5wmax,则将特征点j归入其中的wmax为目标点i与ζt中的其它特征点的高斯权值中的最大值;S3.4)设定为目标点i在t→t+d之间的邻域交集,其中的d=3;S3.5)计算中的各个特征点与目标点i从t→t+d的速度夹角,具体计算公式为:θi,j=1d+1Στ=tt+dabs(θiτ-θjτ)]]>如果且则令如果且则令如果或则令如果且则如果且则如果或则其中,θi,j为特征点j与目标点i从t→t+d的速度夹角,d=3,为特征点j在目标视频图像中的第τ个图像帧的速度方向,为特征点j在目标视频图像中的第τ个图像帧的坐标,为特征点j在目标视频图像中的第τ+1个图像帧的坐标;为目标点i在目标视频图像中的第τ个图像帧的速度方向,为目标点i在目标视频图像中的第τ个图像帧的坐标,为目标点i在目标视频图像中的第τ+1个图像帧的坐标;S3.6)对于中的任意一个特征点j,如果有θi,j≥45或(360‑θi,j)≥45,则将该特征点j从中剃除;S3.7)计算中的每个特征点与目标点i从t→t+d的运动相关性,具体计算公式为:Ci,j=1d+1Στ=tt+dvτi·vτj||vτi||·||vτj||]]>vτi=(vxiτ,vyiτ)=(xiτ+1-xiτ,yiτ+1-yiτ)]]>||vτi||=(vxiτ)2+(vyiτ)2]]>vτj=(vxjτ,vyjτ)=(xjτ+1-xjτ,yjτ+1-yjτ)]]>||vτj||=(vxjτ)2+(vyjτ)2]]>其中,Ci,j为特征点j与目标点i从t→t+d的运动相关性,d=3,为目标点i在目标视频图像中的第τ个图像帧的速度,为特征点j在目标视频图像中的第τ个图像帧的速度,为目标点i在目标视频图像中的第τ个图像帧的坐标,为目标点i在目标视频图像中的第τ+1个图像帧的坐标;为特征点j在目标视频图像中的第τ个图像帧的坐标,为特征点j在目标视频图像中的第τ+1个图像帧的坐标;S3.8)设定Cth=0.6,对于中的任意一个特征点j,如果有Ci,j≤Cth,则将该特征点j从中剃除;S3.9)将定义为目标点i的初始同群点集S4)对每个图像帧的初始同群点集序列,将该初始同群点集序列中的各个初始同群点集按照特征点数目降序排列;S5)对每个图像帧的初始同群点集序列,按照步骤S5.1至步骤S5.3的方法对该初始同群点集序列中的各初始同群点集进行分类标记;S5.1)令K=1,L=1,将第K个初始同群点集中的所有特征点标记为L;S5.2)令K=K+1;如果第K个初始同群点集中的所有特征点都未标记过,则令L=L+1,并将第K个初始同群点集中的所有特征点都标记为L;如果第K个初始同群点集中至少有一个特征点已标记为L,则将第K个初始同群点集中的所有特征点都标记为L;S5.3)重复步骤S5.2,直至初始同群点集序列中的各初始同群点集均标记完毕;S6)对每个图像帧的特征点坐标集,把分类标记相同的特征点归为同一类群体,并在该图像帧中把分类标记相同的特征点用相同的颜色进行标...

【技术特征摘要】
1.一种基于多级过滤模型的密集场景人群分群检测算法,其特征在于,具体步骤如下:S1)对目标视频图像,先采用混合高斯模型对每一个图像帧进行背景建模,再采用背景差法对每一个图像帧的前景、背景进行分割,从而得到每一个图像帧的前景区域;S2)对目标视频图像,采用KLT跟踪算法从每一个图像帧的前景区域中提取特征点,从而得到每一个图像帧的特征点坐标集;S3)对每一个图像帧的特征点坐标集,将该特征点坐标集中的各特征点逐一的作为目标点,并按照步骤S3.1至S3.9的方法获取每个目标点的初始同群点集,最终获得的各个目标点的初始同群点集构成该图像帧的初始同群点集序列;获取目标点的初始同群点集的步骤如下:S3.1)从ζt中取一个特征点作为目标点i,并设定为目标点i的最近邻域,其中,ζt为目标视频图像中的第t个图像帧的特征点坐标集;S3.2)计算目标点i与ζt中的各特征点的高斯权值,具体计算公式为: w i , j = exp ( - d i s t ( i , j ) r ) = exp ( - ( x i - x j ) 2 + ( y i - y j ) 2 r ) ]]>其中,wi,j为目标点i与特征点j的高斯权值,j∈ζt且j≠i,(xi,yi)为目标点i的坐标,(xj,yj)为特征点j的坐标,r的取值为20;S3.3)对ζt中除目标点i之外的每个特征点实施时空距离邻近过滤,过滤方法为:对ζt中的任意一个特征点j,j∈ζt且j≠i,如果有wi,j≥0.5wmax,则将特征点j归入其中的wmax为目标点i与ζt中的其它特征点的高斯权值中的最大值;S3.4)设定为目标点i在t→t+d之间的邻域交集,其中的d=3;S3.5)计算中的各个特征点与目标点i从t→t+d的速度夹角,具体计算公式为: θ i , j = 1 d + 1 Σ τ = t t + d a b s ( θ i τ - θ j τ ) ]]>如果且则令如果且则令如果或则令如果且则如果且则如果或则其中,θi,j为特征点j与目标点i从t→t+d的速度夹角,d=3,为特征点j在目标视频图像中的第τ个图像帧的速度方向,为特征点j在目标视频图像中的第τ个图像帧的坐标,为特征点j在目标视频图像中的第τ+1个图像帧的坐标;为目标点i在目标视频图像中的第τ个图像帧的速度方向,为目标点i在目标视频图像中的第τ个图像帧的坐标,为目标点i在目标视频图像中的第τ+1个图像帧的坐标;S3.6)对于中的任意一个特征点j,如果有θi,j≥45或(360-θi,j)≥45,则将该特征点j从中剃除;S3.7)计算中的每个特征点与目标点i从t→t+d的运动相关性,具体计算公式为: C i , j = 1 d + 1 Σ τ = t t + d v τ i · v τ j ...

【专利技术属性】
技术研发人员:赵倩邵洁赵琰
申请(专利权)人:上海电力学院
类型:发明
国别省市:上海;31

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1