The invention discloses a multi-scale correlation filtering visual tracking method based on adaptive feature fusion. The steps of the method include: firstly, using context-aware correlation filtering framework to filter the Hog and color features respectively, normalizing the response values under the two features, distributing the weights according to the proportion of the response values and linearly. After weighted fusion, the final response graph is obtained, and then the pre-defined response threshold is used to judge whether the filtering model is updated. Finally, scale correlation filter is introduced in the tracking process to improve the scale adaptation ability of the algorithm. The method of the present invention can combine multiple feature tracking to give full play to the performance advantages of each feature, design a new model adaptive updating method, and introduce an accurate scale estimation mechanism. It can effectively improve the update quality and tracking accuracy of the model, and has good robustness in complex scenes such as scale change, fast motion, deformation, occlusion and so on.
【技术实现步骤摘要】
自适应特征融合的多尺度相关滤波视觉跟踪方法
本专利技术涉及计算机视觉的视觉跟踪领域,特别是涉及一种自适应特征融合的多尺度相关滤波视觉跟踪方法。
技术介绍
视觉跟踪是计算机视觉领域一个基本研究问题,并且在视频监控,无人驾驶,人机交互,军事制导等领域中有广泛的运用。尽管近十几年来得到较好的发展,并且大量经典优秀的算法相继被提出,但其仍然是一个极具挑战的问题,存在着许多外界因素的干扰,例如光照变化、快速运动、遮挡和形变等。如何实现更加准确地跟踪,以及更好适应各种复杂场景的挑战是目前视觉跟踪领域研究的重要课题。一方面目前单一特征视觉跟踪算法不能够较好地适应复杂场景的挑战,经常受到目标的尺度变化、形变、快速运动和遮挡等影响而引起跟踪框发生漂移,进而导致跟踪失败。另一方面,在跟踪过程中当目标遇到复杂场景变化后,在此期间将会产生一些错误的跟踪信息,这些信息将会被引入至模型更新过程中,在模型更新时将会被传递至下一帧中,长期积累将会引起模型质量变差,最终导致跟踪失败。基于如上所述,本专利技术人对其进一步的探索和研究,提出一种自适应特征融合的多尺度相关滤波视觉跟踪方法。
技术实现思路
本专利技术的目的在于提供一种自适应特征融合的多尺度相关滤波视觉跟踪方法,结合多特征融合丰富特征表达的多样性,并提高尺度适应能力,及滤波模型的更新质量,改善算法的跟踪效率。为了达成上述目的,本专利技术的解决方案是:一种自适应特征融合的多尺度相关滤波视觉跟踪方法,包括以下步骤:步骤1、初始化:目标周围区域,理想尺度滤波输出标准差,滤波器正则化权重因子λ,λ1,λ2,跟踪模型学习因子η,权重更新因子δ,尺 ...
【技术保护点】
1.一种自适应特征融合的多尺度相关滤波视觉跟踪方法,包括以下步骤:步骤1、初始化:目标周围区域,理想尺度滤波输出标准差,滤波器正则化权重因子λ,λ1,λ2,跟踪模型学习因子η,权重更新因子δ,尺度级数S,尺度增量因子a,响应阈值T的初始化设置;并且采用的Hog特征大小为4pixel×4pixel的目标单元,采用M×N的网格单元表示目标候选窗口图像块z的大小,并与跟踪框大小成比例;步骤2、采用上下文感知相关滤波框架读取视频序列,该框架分为三个步骤,分别为分类器训练、位置预测和模型更新,其中分类器训练的具体步骤如下:步骤2A、分类器将目标候选窗口图像块z的所有通过循环移位得到的训练样本形成数据矩阵D0和期望输出y,通过优化如下公式(1):
【技术特征摘要】
1.一种自适应特征融合的多尺度相关滤波视觉跟踪方法,包括以下步骤:步骤1、初始化:目标周围区域,理想尺度滤波输出标准差,滤波器正则化权重因子λ,λ1,λ2,跟踪模型学习因子η,权重更新因子δ,尺度级数S,尺度增量因子a,响应阈值T的初始化设置;并且采用的Hog特征大小为4pixel×4pixel的目标单元,采用M×N的网格单元表示目标候选窗口图像块z的大小,并与跟踪框大小成比例;步骤2、采用上下文感知相关滤波框架读取视频序列,该框架分为三个步骤,分别为分类器训练、位置预测和模型更新,其中分类器训练的具体步骤如下:步骤2A、分类器将目标候选窗口图像块z的所有通过循环移位得到的训练样本形成数据矩阵D0和期望输出y,通过优化如下公式(1):可以得到一个对目标图像块具有高响应,对上下文图像块接近零响应的滤波器h;步骤2B、将上下文图像块作为正则化矩阵加入公式(2):在每一帧中采样k个上下文图像块,其中Di∈Rn×n和D0∈Rn×n为相应的循环矩阵,Rn×n为n×n维的样本空间,i,k为循环矩阵Di的下标,它们包含了形成各种干扰项和复杂背景的全局上下文图像块,λ1和λ2为正则化权重因子防止过拟合;步骤2C、由于目标图像块内包含许多上下文图像块,而且生成了一个(k+1)n×n维的数据矩阵C∈R(k+1)n×n,公式(2)写成如下公式(3):其中为新的期望输出。步骤2D、由于目标函数fp(h,C)是凸函数,可以通过求导将其最小化得到公式(4):其中,λ1为正则化权重,为新的期望输出;步骤2E、利用循环矩阵的性质可求得其在傅利叶域的封闭解为:其中,·为矩阵元素之间的点积,λ1和λ2为正则化权重更新因子防止过拟合;通过公式(5)训练得到一个对目标图像块具有高响应而对上下文区域具有低响应的滤波器h,并将其用于目标位置预测;位置预测具体步骤如下:将得到的滤波器h和下一帧候选窗口图像块z卷积,Z为其循环矩阵,然后查找所有测试样本响应向量yp(z,h)的最大响应的位置为目标的预测位置,对于给定的单个候选窗口图像块z,分类器的响应输出为如下公式(6):其中为逆傅里叶变换,·表示元素点积运算;模型更新的具体步骤如下:采用线性插值法来更新参数,其更新方式如下公式(7a)、(7b):其中i是当前帧的序号,η是学习因子,为预测位置由训练样本通过公式(5)得到的分类器参数;为预测位置的目标外观模型;步骤3、采用上下文感知相关滤波框架对目标图像块提取Hog特征;步骤3A、使用公式(6)计算滤波响应值记为HogRt;步骤3B、对计算得...
【专利技术属性】
技术研发人员:柳培忠,陈智,刘晓芳,骆炎民,汪鸿翔,杜永兆,
申请(专利权)人:华侨大学,泉州市中仿宏业信息科技有限公司,
类型:发明
国别省市:福建,35
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。