基于局部对比显著性联合特征的目标跟踪方法技术

技术编号:11335066 阅读:120 留言:0更新日期:2015-04-23 03:17
本发明专利技术为一种基于局部对比显著性联合特征的目标跟踪方法。包括步骤:(1)目标跟踪开始初始化选取目标区域和背景区域;(2)提取目标区域和局部背景区域的颜色、纹理、梯度方向直方图特征,进行自下而上显著特征提取;(3)自上而下的特征评估,修正显著性模型;本发明专利技术利用显著性特征强区分性、稳健性,作为单一的特征的补充,能够较好的表述目标,可以提高系统在目标与背景具有相似特征分布、局部遮挡、目标自身变化等复杂场景下的跟踪性能,具有较强的鲁棒性。

【技术实现步骤摘要】
基于局部对比显著性联合特征的目标跟踪方法
本专利技术属于计算机视觉与图像处理
,具体涉及基于局部对比显著性联合特征的目标跟踪方法。背景目标跟踪尤其是复杂场景下目标跟踪是计算机视觉面临的极具挑战性的难点。能够在复杂场景下利用较少的先验知识对目标进行跟踪,已经成为军事侦查、移动机器人、智能视频监控等迫切的要求。在复杂背景下各种环境因素:目标类内变化、姿态、光照条件等使得很难进行目标的有效跟踪。因此,广大研究者试图寻求先进的技术手段,提出高效、实时的复杂环境下的目标跟踪算法。均值漂移(Comaniciu,D.,Ramesh,V.,andMeer,P.,“Kernel–basedobjecttracking)是常用的跟踪方法,这类方法首先利用颜色直方图建立目标和候选目标模型,利用巴氏系数计算相似性系数,通过MeanShift找到最相似候选区域实现对目标的跟踪。具有实时性好、框架优美和简单的优点,获得广泛的应用。然而,由于仅采用颜色特征,只适用于目标和背景颜色区分度较好的场合,使得该方法具有一定的局限性。自Itti于1998年提出基于特征整合的视觉注意显著性可计算模型,并应用于计算机视觉领域的场景分析以后,针对显著性的目标跟踪方法发展起来。Su等人于2014年提出利用先验知识计算加权集自适应构建Itti模型,用于突然运动跟踪。但这类方法并没有考虑背景的信息,且Itti模型本身需要调节的参数比较多,计算耗时,选用目标模型作为先验难免会有误差,很难得到客观公正的结果。Mahadevan等人认为视觉跟踪是时序判别中心显著性自上而下的调解过程,于2009年提出利用统计分类学习中心周边判别显著特征,进行目标初始化、特征选择和检测确定目标在下一帧的位置实现目标跟踪。但是,利用统计学习方法计算量较大,且仅仅模拟了跟踪过程,在面对复杂场景时对于目标特征的变化具有明显的不足。复杂场景目标跟踪方法存在的难点在于:(1)复杂场景,包括光线剧烈变化、目标周围存在相似分布的背景、非跟踪的物体等干扰因素;(2)目标自身的改变,包括姿态变化、突然运动及被遮挡等;(3)传统的特征表述框架。选择的特征不能很好的区分目标和背景,会使跟踪漂移;融合多特征缺乏有效的方法,很难获得鲁棒的跟踪结果。(4)显著性特征具有极强的判别力,现有方法获得的特征不仅计算方法复杂,而且特征分布仅仅是零散的,跟踪过程中的区分力比较弱;同时,仅仅利用显著特征,目标特征信息不完整,目标如何从复杂背景完整有效突显出来是显著性在目标跟踪应用的难点。
技术实现思路
本专利技术的目的在于克服现有技术的不足,提供一种基于局部对比显著性联合特征的目标跟踪方法,通过提取目标模型的局部对比显著特征,采取自下而上和自上而下联合调节的方法处理目标自身变化和复杂背景问题,获得更好的目标跟踪效果。本专利技术的基于局部对比显著性联合特征的目标跟踪方法,包括以下步骤:步骤S1:选取动态场景下视频的第t帧输入含有跟踪目标和常用背景环境的视频帧,手动选取目标区域,并用矩形框表示目标区域的边界;步骤S2:根据目标区域选取背景区域,并用矩形框表示背景区域的边界;步骤S3:分别提取目标区域和背景区域的颜色直方图特征、纹理直方图特征、梯度直方图特征,计算每个特征的概率值,并生成对应的概率图;步骤S4:依据提取的颜色直方图特征、纹理直方图特征、梯度直方图特征,分别计算每个特征的对比度值,定义为显著性特征,并生成对应的特征向量f1、f2、f3;步骤S5:基于特征向量f1、f2、f3,堆栈构造样本特征向量F=[f1,f2,f3]T步骤S6:依据每个特征图对目标显著性的贡献度,利用学习算法估计最优特征权,选出最显著特征;步骤S7:利用最显著特征分别建立目标和背景观测模型,利用MeanShift算法找到目标下一帧的位置;步骤S8:判断显著性特征确定的跟踪框和目标位置的相似性,检测跟踪目标是否失败;步骤S9:当检测出跟踪目标正常,执行步骤13;若检测出跟踪目标失败,执行步骤10;步骤10:构建可分性评价函数Dt,公式为其中,为目标观测;为背景观测;ε为设定常数,用于去掉较小的目标观测和背景观测,以提高算法的稳定性;r为背景特征分布;ω为前景特征分布;目标观测和背景观测采用具有H个区间的直方图来表示,h表示特征分量,h=1,2,……,H;t为选取图像的帧数;通过可分性评价函数Dt将显著性目标模型与背景共有的特征映射为零值,存在于背景特征分布映射为负值,只保留目标最能区分的特征分量构成目标的显著性模型;步骤S11:构建目标观测的连续性模型其中为显著性目标连续模型;为t-k时刻目标模型;为t时刻显著性目标模型;γk为遗忘因子;C2为归一化常数;t为选取图像的帧数;k为选取图像的第k帧视频;步骤S12:利用可分性评价函数Dt及目标观测的连续性模型对目标模型进行修正,得到目标合作模型;步骤S13:利用均值漂移算法实现的定位。优选的,步骤S4中计算对比度值的方法如下:提取目标区域的颜色直方图特征、纹理直方图特征、梯度直方图特征,分别生成的概率图,其向量均可表示为提取背景区域的颜色直方图特征、纹理直方图特征、梯度直方图特征,分别生成的概率图,其向量均可表示为步骤S4中计算对比度值的公式为其中目标区域和背景区域采用具有H个区间的直方图来表示,h表示特征分量,h=1,2,……,H,f∈{C,LBP,HOG}表示特征向量,C为颜色、LBP为纹理、HOG为梯度方向直方图。优选的,步骤2中所述背景区域与目标区域形状相同且具有相同中心点。优选的,步骤S6中所述的学习算法为AdaBoost算法。优选的,步骤S10中参数ε通过中位数估算得到,其取值范围为(0,1)。本专利技术的有益效果在于:本专利技术通过引入局部对比显著特征构建目标外观,并通过自上而下的修正指导形成合作模型,通过均值漂移算法定位实现跟踪,解决了现有技术在跟踪过程中只通过建立简单目标模型并更新的方法,往往难以获得好的处理结果的问题。大量实验表明本专利技术具有以下优点:(1)解决传统目标跟踪方法难以处理目标处于相似背景分布和运动物体存在的问题;(2)可靠性高,改进了传统方法缺乏完整目标信息的不确定因素;(3)显著性特征能够较完整的突显目标。附图说明图1为本专利技术所提供显著性特征提取方法的框图。图2为本专利技术目标跟踪框图。具体实施方式下面结合图1、图2对本专利技术的具体实施方法进一步详细描述,以下实例用于说明本专利技术,但不限于限制本专利技术的范围。本实施例的方法包括三部分:(1)目标跟踪开始初始化手动选取目标区域,用矩形框表示,然后在目标区域周围自动生成固定值倍数的矩形框,两个矩形框的区域作为局部背景区域;(2)自下而上显著特征提取:提取目标区域和局部背景区域的颜色、纹理、梯度方向直方图特征;分别计算每个特征的对比度定义特征显著图,并生成对应的概率图;堆栈几个特征组成样本向量;按照每个特征图对目标显著性的贡献度,利用学习算法估计最优特征权,选出最显著特征;利用显著特征表示目标和候补目标模型,利用MeanShift算法找到目标下一帧的位置;(3)自上而下的特征评估,修正显著性模型:判断显著性特征确定的跟踪框和目标位置的相似性,检测跟踪目标是否失败;当检测出跟踪目标正常,选择颜色特征就足够了;若检测出跟踪目标性能变本文档来自技高网
...
基于局部对比显著性联合特征的目标跟踪方法

【技术保护点】
基于局部对比显著性联合特征的目标跟踪方法,其特征在于:包括以下步骤:步骤S1:选取动态场景下视频的第t帧输入含有跟踪目标和常用背景环境的视频帧,手动选取目标区域,并用矩形框表示目标区域的边界;步骤S2:根据目标区域选取背景区域,并用矩形框表示背景区域的边界;步骤S3:分别提取目标区域和背景区域的颜色直方图特征、纹理直方图特征、梯度直方图特征,计算每个特征的概率值,并生成对应的概率图;步骤S4:依据提取的颜色直方图特征、纹理直方图特征、梯度直方图特征,分别计算每个特征的对比度值,定义为显著性特征,并生成对应的特征向量f1、f2、f3;步骤S5:基于特征向量f1、f2、f3,堆栈构造样本特征向量F=[f1,f2,f3]T步骤S6:依据每个特征图对目标显著性的贡献度,利用学习算法估计最优特征权,选出最显著特征;步骤S7:利用最显著特征分别建立目标和背景观测模型,利用Mean Shift算法找到目标下一帧的位置;步骤S8:判断显著性特征确定的跟踪框和目标位置的相似性,检测跟踪目标是否失败;步骤S9:当检测出跟踪目标正常,执行步骤13;若检测出跟踪目标失败,执行步骤10;步骤10:构建可分性评价函数Dt,公式为其中,为目标观测;为背景观测;ε为设定常数,用于去掉较小的目标观测和背景观测,以提高算法的稳定性;r为背景特征分布;ω为前景特征分布;目标观测和背景观测采用具有H个区间的直方图来表示,h表示特征分量,h=1,2,……,H;t为选取图像的帧数;通过可分性评价函数Dt将显著性目标模型与背景共有的特征映射为零值,存在于背景特征分布映射为负值,只保留目标最能区分的特征分量构成目标的显著性模型;步骤S11:构建目标观测的连续性模型其中为显著性目标连续模型;为t‑k时刻目标模型;为t时刻显著性目标模型;γk为遗忘因子;C2为归一化常数;t为选取图像的帧数;k为选取图像的第k帧视频;步骤S12:利用可分性评价函数Dt及目标观测的连续性模型对目标模型进行修正,得到目标合作模型;步骤S13:利用均值漂移算法实现的定位。...

【技术特征摘要】
1.基于局部对比显著性联合特征的目标跟踪方法,其特征在于:包括以下步骤:步骤S1:选取动态场景下视频的第t帧输入含有跟踪目标和常用背景环境的视频帧,手动选取目标区域,并用矩形框表示目标区域的边界;步骤S2:根据目标区域选取背景区域,并用矩形框表示背景区域的边界;步骤S3:分别提取目标区域和背景区域的颜色直方图特征、纹理直方图特征、梯度直方图特征,计算每个特征的概率值,并生成对应的概率图;步骤S4:依据提取的颜色直方图特征、纹理直方图特征、梯度直方图特征,分别计算每个特征的对比度值,定义为显著性特征,并生成对应的特征向量f1、f2、f3;步骤S5:基于特征向量f1、f2、f3,堆栈构造样本特征向量F=[f1,f2,f3]T步骤S6:依据每个特征图对目标显著性的贡献度,利用学习算法估计最优特征权,选出最显著特征;步骤S7:利用最显著特征分别建立目标和背景观测模型,利用MeanShift算法找到目标下一帧的位置;步骤S8:判断显著性特征确定的跟踪框和目标位置的相似性,检测跟踪目标是否失败;步骤S9:当检测出跟踪目标正常,执行步骤S13;若检测出跟踪目标失败,执行步骤S10;步骤10:构建可分性评价函数Dt,公式为其中,为目标观测;为背景观测;ε为设定常数,用于去掉较小的目标观测和背景观测,以提高算法的稳定性;r为背景特征分布;ω为前景特征分布;目标观测和背景观测采用具有H个区间的直方图来表示,h表示特征分量,h=1,2,……,H;t为选取图像的帧数;通过可分性评价函数Dt将显著性目标模型与背景共有的特征映射为零值,存在于背景特征分布映射为负值,只保留目标最能区分的特征分量构成目标的显著性模型;步骤S11:构建目标观测的连续性模型

【专利技术属性】
技术研发人员:郑碎武刘林山乔红
申请(专利权)人:中国科学院自动化研究所
类型:发明
国别省市:北京;11

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1