当前位置: 首页 > 专利查询>安徽大学专利>正文

一种监控场景中的运动目标尺度估计方法技术

技术编号:19512042 阅读:28 留言:0更新日期:2018-11-21 08:13
本发明专利技术公开了一种监控场景中的运动目标尺度估计方法,获取某特定监控场景的少量视频;检测该视频场景中的所有目标,以行人目标为例,获得目标的包围盒;对包围盒数据进行线性拟合,获得场景中目标平均尺度的分布;利用场景中的几何特性分析目标在图像平面上移动时高度的变化规律;利用得到的平均尺度分布和高度的变化规律,得到该特定场景中目标从位置A移动到位置B的高度变化规律;获取某特定目标在该场景图像中的一个位置和对应位置的尺度;利用尺度预测模型及目标的位置和尺度,求得该目标在场景中的尺度分布。利用监控场景的几何特性对场景中目标的尺度进行分析,不依赖于目标的外观,在含有复杂挑战的监控场景下实现鲁棒的尺度自适应跟踪。

【技术实现步骤摘要】
一种监控场景中的运动目标尺度估计方法
本专利技术涉及一种监控系统和计算机视觉技术,尤其涉及的是一种监控场景中的运动目标尺度估计方法。
技术介绍
目前,对目标进行尺度估计时,通常包括如下方法:1.根据不同尺度的目标外观置信度选择置信度最高的尺度。例如:暴力搜索各种尺度下与目标最相似的目标对应的尺度;在基础尺度上按一定比例放大或缩小尺度来进行多尺度检测,寻找最佳尺度;利用尺度相关滤波器检测目标的尺度变化,进行当前帧目标尺度的估计。2.根据目标自身特征获得尺度。例如:匹配目标关键点来确定目标尺度。3.将目标尺度作为运动模型中的一个状态。例如:利用粒子滤波进行跟踪。上述方法均是基于目标进行的尺度估计。现有技术的缺点是基于目标进行尺度估计,依赖于目标外观,在含有较复杂的挑战(如:噪声,遮挡等)的监控场景下目标尺度估计不够鲁棒。
技术实现思路
本专利技术所要解决的技术问题在于:如何不依赖目标的外观,在含有复杂挑战的监控场景下实现鲁棒的尺度自适应跟踪,提供了一种监控场景中的运动目标尺度估计方法。本专利技术是通过以下技术方案解决上述技术问题的,本专利技术包括以下步骤:(1)获取某特定监控场景的少量视频;(2)检测该视频场景中的所有目标,以行人目标为例,获得目标的包围盒;(3)对包围盒数据进行线性拟合,获得场景中目标平均尺度的分布;(4)利用场景中的几何特性分析目标在图像平面上移动时高度的变化规律;(5)利用得到的平均尺度分布和高度的变化规律,得到该特定场景中目标从位置A移动到位置B的高度变化规律,即该场景的尺度预测模型;(6)获取某特定目标在该场景图像中的一个位置和对应位置的尺度;(7)利用尺度预测模型及目标的位置和尺度,求得该目标在场景中的尺度分布。所述步骤(2)中,检测视频帧中的行人目标,获得大量目标的包围盒数据(x,y,w,h),其中(x,y)为目标包围盒中心在图像中的坐标,w为包围盒宽度,h为包围盒高度。所述步骤(3)中,对检测框的中心位置和高度进行拟合,获得该场景中目标位置p与高度h的关系从而获得场景中不同位置的目标平均高度分布,即其中p为齐次坐标,θ为参数向量,T为矩阵的转置操作。所述步骤(4)具体如下:分析场景中的几何特性并得到目标从位置pA移动到位置pB后对应的高度hA和hB在图像平面上的关系,即:所述步骤(5)中,将平均尺度分布中的参数代入高度变化规律中,得到该场景下的目标尺度预测模型,即:所述步骤(7)中,给定图像中的任意位置p,在该位置p上求得目标的高度;假定目标在图像中具有相同的高宽比,根据获取的尺度计算目标高宽比,从而获得目标在图像中位置p的宽度,则可得到该目标在场景中任意位置的尺度。本专利技术相比现有技术具有以下优点:本专利技术基于目标所在的监控场景对目标进行尺度估计,并将本方法结合到八个基准跟踪方法(MEEM,KCF,STRUCK,BIT,ECO,BACF,CREST,CFWCR)中,辅助跟踪做到了对目标进行尺度自适应跟踪。其中结合四个无尺度处理基准跟踪方法(MEEM,KCF,STRUCK,BIT)得到的跟踪精度和准确度均优于基准跟踪方法;另外将四个较为先进的多尺度基准跟踪方法(ECO,BACF,CREST,CFWCR)中的尺度搜索方式替换为本专利技术所提供的方案后,本专利技术得到的跟踪精度和准确度优于基准跟踪方法或与其具有竞争性,且跟踪速度明显提高。附图说明图1是本专利技术的流程示意图;图2是目标移动时高度变化示意图。具体实施方式下面对本专利技术的实施例作详细说明,本实施例在以本专利技术技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程,但本专利技术的保护范围不限于下述的实施例。如图1所示,本实施例包括以下步骤:(1)获取某特定监控场景的少量视频;将获取某个特定监控场景的少量视频,拆分成视频帧,可以采用但不限于R-FCN的检测方法检测视频帧中的目标,包括行人、机动车和非机动车,本实施例以行人目标为例详述操作步骤,由检测得到行人目标的包围盒数据。(2)检测该视频场景中的所有目标,以行人目标为例,获得目标的包围盒;可以采用但不限于R-FCN检测方法检测视频帧中的行人目标,获得大量目标的包围盒数据(x,y,w,h),其中(x,y)为目标包围盒中心在图像中的坐标,w为包围盒宽度,h为包围盒高度。(3)对包围盒数据进行线性拟合,获得场景中目标平均尺度的分布;由包围盒数据获得所有目标的中心位置和对应的高度,重点分析高度来探索目标尺度变化规律;可以采用但不限于最小二乘方法对检测框的中心位置和高度进行拟合,获得该场景中目标位置与高度的关系,此关系用参数表示,获得场景中不同位置的目标平均高度分布;(4)利用场景中的几何特性分析目标在图像平面上移动时高度的变化规律;分析场景中的几何特性并得到目标从位置pA移动到位置pB后对应的高度hA和hB在图像平面上的关系,即:(5)利用得到的平均尺度分布和高度的变化规律,得到该特定场景中目标从位置A移动到位置B的高度变化规律,即该场景的尺度预测模型;分析可得高度变化规律与场景的几何特性有关,即由平均尺度分布中的参数决定;将步骤(3)得到的平均尺度分布中的参数代入步骤(4)的高度变化规律中,得到该场景下的目标尺度预测模型,即(6)获取某特定目标在该场景图像中的一个位置和对应位置的尺度;(7)利用尺度预测模型及目标的位置和尺度,求得该目标在场景中的尺度分布;给定图像中的任意位置p,步骤(5)中的公式代入步骤(6)获取的目标位置及高度,在该位置p上求得目标的高度;假定目标在图像中具有相同的高宽比,根据步骤(6)获取的尺度计算目标高宽比,从而获得目标在图像中位置p的宽度,则可得到该目标在场景中任意位置的尺度。以上所述仅为本专利技术的较佳实施例而已,并不用以限制本专利技术,凡在本专利技术的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本专利技术的保护范围之内。本文档来自技高网...

【技术保护点】
1.一种监控场景中的运动目标尺度估计方法,其特征在于,包括以下步骤:(1)获取某特定监控场景的少量视频;(2)检测该视频场景中的所有目标,以行人目标为例,获得目标的包围盒;(3)对包围盒数据进行线性拟合,获得场景中目标平均尺度的分布;(4)利用场景中的几何特性分析目标在图像平面上移动时高度的变化规律;(5)利用得到的平均尺度分布和高度的变化规律,得到该特定场景中目标从位置A移动到位置B的高度变化规律,即该场景的尺度预测模型;(6)获取某特定目标在该场景图像中的一个位置和对应位置的尺度;(7)利用尺度预测模型及目标的位置和尺度,求得该目标在场景中的尺度分布。

【技术特征摘要】
1.一种监控场景中的运动目标尺度估计方法,其特征在于,包括以下步骤:(1)获取某特定监控场景的少量视频;(2)检测该视频场景中的所有目标,以行人目标为例,获得目标的包围盒;(3)对包围盒数据进行线性拟合,获得场景中目标平均尺度的分布;(4)利用场景中的几何特性分析目标在图像平面上移动时高度的变化规律;(5)利用得到的平均尺度分布和高度的变化规律,得到该特定场景中目标从位置A移动到位置B的高度变化规律,即该场景的尺度预测模型;(6)获取某特定目标在该场景图像中的一个位置和对应位置的尺度;(7)利用尺度预测模型及目标的位置和尺度,求得该目标在场景中的尺度分布。2.根据权利要求1所述的一种监控场景中的运动目标尺度估计方法,其特征在于,所述步骤(2)中,检测视频帧中的行人目标,获得大量目标的包围盒数据(x,y,w,h),其中(x,y)为目标包围盒中心在图像中的坐标,w为包围盒宽度,h为包围盒高度。3.根据权利要求2所述的一种监控场景中的运动目标尺度...

【专利技术属性】
技术研发人员:王文中钟冉李成龙郑爱华汤进
申请(专利权)人:安徽大学
类型:发明
国别省市:安徽,34

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1