一种自适应超特征融合的视觉跟踪方法技术

技术编号:26421424 阅读:31 留言:0更新日期:2020-11-20 14:17
本发明专利技术涉及一种自适应超特征融合的视觉跟踪方法,包括以下步骤:步骤S1:对输入图像序列分别提取深度特征和传统手工特征;步骤S2:构建尺度和位置滤波模型,计算生成手工特征和深度特征对应输出响应图;步骤S3:引入高斯约束优化方法控制生成的响应图使其服从高斯分布;步骤S4:分别计算手工特征和深度特征对应输出响应图的PSR值,并根据PSR值判断是否更新尺度和位置滤波模型;步骤S5:将手工特征和深度特征对应输出响应图输入尺度和位置滤波模型,实现视觉跟踪。本发明专利技术充分结合不同特征的性能优势以实现鲁棒精准的跟踪。

【技术实现步骤摘要】
一种自适应超特征融合的视觉跟踪方法
本专利技术涉及人工智能视频图像处理
,具体涉及一种自适应超特征融合的视觉跟踪方法。
技术介绍
当前,随着信息通信技术与云存储设备的不断迭代升级,利用人工智能技术取代人工劳力已成为现代科技发展的主流趋势,不但能够减轻生产劳动成本,而且能够有效提升生产工作效率。视觉目标跟踪技术又是人工智能众多领域中一项重要热门的研究方向,能够被广泛运用于视频监控系统、无人机、自动驾驶、智能机器人、以及虚拟现实等多个领域。虽然目标跟踪方法取得显著的精确性和鲁棒性,但其仍然面临多种外界因素的干扰和复杂外观变化的挑战,如遮挡、尺度变化、形变以及相似背景干扰等。设计一种能够适应多种外观环境挑战的跟踪方法是以实现准确鲁棒的跟踪是目前视觉跟踪领域重要的研究问题。一方面传统的手工特征表达不能提取目标的深层次语义信息,进而不能实现精确的目标定位。而高维的深层次卷积特征虽然能够保留完整的空间结构和高清的分辨率,但其对目标的外观变化较为敏感,进而难以适应复杂的外观变化。另一方面,传统的逐帧更新模型的方法容易引起模型的污染问题,长期积累容易引起跟踪漂移问题,最终导致跟踪失败。
技术实现思路
有鉴于此,本专利技术的目的在于提供一种为实现上述目的,本专利技术采用如下技术方案:一种自适应超特征融合的视觉跟踪方法,包括以下步骤:步骤S1:对输入图像序列分别提取深度特征和传统手工特征;步骤S2:构建尺度和位置滤波模型,计算生成手工特征和深度特征对应输出响应图;步骤S3:引入高斯约束优化方法控制生成的响应图使其服从高斯分布;步骤S4:分别计算手工特征和深度特征对应输出响应图的PSR值,并根据PSR值判断是否更新尺度和位置滤波模型;步骤S5:将手工特征和深度特征对应输出响应图输入尺度和位置滤波模型,实现视觉跟踪。进一步的,所述位置滤波模型构建具体为:A1:初始化模型参数,包括位置滤波输出标准差,滤波模型学习率,滤波器的正则化权重因子λ1和λ2,采用具有31bin的4×4网格单元大小的HOG特征,深度特征和手工特征初始化权重设置,尺度步长因子r,尺度级数S,尺度学习率η,采用M×N的网格单元表示搜索窗口大小,并且与目标框大小成比例;A2:采用上下文感知滤波器作为基础跟踪器,用于预测目标的初始位置;A3:学习上下文感知滤波器w和下一帧图像块z进行卷积运算,目标的位置即为响应图的最大值f(z),其检测表达式为:其中,F-1为逆傅里叶变换,为卷积运算;A4:采用线性插值法更新上下文感知滤波器系数,具体为如下公式:其中,i为当前帧的序号,η为滤波模型学习率。进一步的,所述步骤A2具体为:步骤A21:对于上下文感知滤波器w,向量化高斯形变标签y,以及搜索窗口经循环移位形成的数据矩阵D0,通过优化如下目标函数:其中,λ1和λ2为正则化权重因子,D0和Di为对应的循环矩阵。步骤A22:经过求解得到上下文感知滤波器w在傅里叶域的封闭解为:进一步的,所述尺度滤波模型构建,具体如下:步骤B1:构建尺度判别滤波器,提取目标分层卷积特征,并进行线性加权融合:f_deep=1×f_deep1+0.5×f_deep2(6)其中,f_deep1和f_deep2分别为conv5-4,conv4-4层经公式(3)计算生成的对应的响应图;步骤B2:将手工特征和深度特征经公式(3)和公式(6)计算生成的响应图进行加权融合得到:其中,fuse_r1和fuse_r2为深度特征和手工特征对应的响应权重。进一步的,所述步骤S3具体为:步骤S31:将深度特征与手工特征生产的响应图进行加权融合得到如下公式:f_fuse=model_fuse_r1×f_deep+model_fuse_r2×f_handmodel_fuse_r1=fuse_r1;(9)步骤S32:分别利用公式(10)和公式(11)进行更新响应权重系数:步骤S33:利用高斯约束优化方法优化公式(9)生成的相关输出响应图,使其服从高斯分布以提高对复杂外观变化的适应性,其表达式为:其中,yi表示第i帧样本的高斯函数标签,μ和σ2分别为高斯函数N的平均值和标准差。进一步的,所述步骤S4具体为:分别计算手工特征和深度特征对应输出响应图的PSR值,并分别记为PSR_deep和PSR_hand,于是将得到每个旁瓣的权重:计算最终的峰值旁瓣比为:仅当满足当前帧的平均PSR值大于响应图峰值时,将在线更新公式(4)和公式(5)的学习率参数η,此时当前帧的跟踪结果视为相对精确的,否则将选择不更新模型。进一步的,所述模型更新,具体为:利用贝叶斯框架求解方程(12),它的两个KKT条件为:引入||βt-βt-1||2替代公式(13)的高斯约束,运用拉格朗日方法获得公式(13)的对偶形式,其在贝叶斯框架上的具体表达式为:求解得到公式(15):令得到下式:根据公式(16),将进化后的学习因子η替代公式(4)和公式(5)对应的模型学习因子。本专利技术与现有技术相比具有以下有益效果:1、本专利技术通过有效结合传统手工特征和深度卷积特征的性能优势,提升分类器的判别性能。2、本专利技术引入一种高斯约束优化方法提高跟踪器对复杂外观变化的适应能力,能够有效提升跟踪器的精确性和成功率3、本专利技术所提的更新方法根据平均PSR值与相应图峰值的关系自适应判断模型的更新,能够有效避免模型污染引起的跟踪漂移问题。附图说明图1是本专利技术方法流程图;图2是本专利技术一实施例中在OTB100数据集中在50个视频序列的精确度曲线和成功率曲线图;图3是本专利技术一实施例中在OTB100数据集中在100个视频序列的精确度曲线和成功率曲线图;图4是本专利技术一实施例中UAV123数据集中在123个视频序列的精确度曲线和成功率曲线图。具体实施方式下面结合附图及实施例对本专利技术做进一步说明。请参照图1,本专利技术提供一种自适应超特征融合的视觉跟踪方法,包括以下步骤:步骤S1:对输入图像序列分别提取深度特征和传统手工特征;步骤S2:构建尺度和位置滤波模型,计算生成手工特征和深度特征对应输出响应图;在本实施例中,优选的位置滤波模型构建具体为:A1:初始化模型参数,包括位置滤波输出标准差,滤波模型学习率,滤波器的正则化权重因子λ1和λ2,采用具有31bin的4×4网格单元大小的HOG特征,深度特征和手工特征初始化权重设置,尺度步长因子r,尺度级数S,尺度学习率η,采用M×N的网格单元表示搜索窗口大小,并且与目标框大本文档来自技高网...

【技术保护点】
1.一种自适应超特征融合的视觉跟踪方法,其特征在于,包括以下步骤:/n步骤S1:对输入图像序列分别提取深度特征和传统手工特征;/n步骤S2:构建尺度和位置滤波模型,计算生成手工特征和深度特征对应输出响应图;/n步骤S3:引入高斯约束优化方法控制生成的响应图使其服从高斯分布;/n步骤S4:分别计算手工特征和深度特征对应输出响应图的PSR值,并根据PSR值判断是否更新尺度和位置滤波模型;/n步骤S5:将手工特征和深度特征对应输出响应图输入尺度和位置滤波模型,实现视觉跟踪。/n

【技术特征摘要】
1.一种自适应超特征融合的视觉跟踪方法,其特征在于,包括以下步骤:
步骤S1:对输入图像序列分别提取深度特征和传统手工特征;
步骤S2:构建尺度和位置滤波模型,计算生成手工特征和深度特征对应输出响应图;
步骤S3:引入高斯约束优化方法控制生成的响应图使其服从高斯分布;
步骤S4:分别计算手工特征和深度特征对应输出响应图的PSR值,并根据PSR值判断是否更新尺度和位置滤波模型;
步骤S5:将手工特征和深度特征对应输出响应图输入尺度和位置滤波模型,实现视觉跟踪。


2.根据权利要求1所述的自适应超特征融合的视觉跟踪方法,其特征在于,所述位置滤波模型构建具体为:
A1:初始化模型参数,包括位置滤波输出标准差,滤波模型学习率,滤波器的正则化权重因子λ1和λ2,采用具有31bin的4×4网格单元大小的HOG特征,深度特征和手工特征初始化权重设置,尺度步长因子r,尺度级数S,尺度学习率η,采用M×N的网格单元表示搜索窗口大小,并且与目标框大小成比例;
A2:采用上下文感知滤波器作为基础跟踪器,用于预测目标的初始位置;
A3:学习上下文感知滤波器w和下一帧图像块z进行卷积运算,目标的位置即为响应图的最大值f(z),其检测表达式为:



其中,F-1为逆傅里叶变换,为卷积运算;
A4:采用线性插值法更新上下文感知滤波器系数,具体为如下公式:






其中,i为当前帧的序号,η为滤波模型学习率。


3.根据权利要求2所述的自适应超特征融合的视觉跟踪方法,其特征在于,所述步骤A2具体为:
步骤A21:对于上下文感知滤波器w,向量化高斯形变标签y,以及搜索窗口经循环移位形成的数据矩阵D0,通过优化如下目标函数:



其中,λ1和λ2为正则化权重因子,D0和Di为对应的循环矩阵。
步骤A22:经过求解得到上下文感知滤波器w在傅里叶域的封闭解为:





4.根据权利要求3所述的自适应超特征融合的视觉跟踪方法,其特征在于,所述尺度滤波模型构建,具体如下:
步骤B1:构建尺度判别滤波器,提取目标分层卷积特征,并进行线性加权融合:
f_deep=1×f_d...

【专利技术属性】
技术研发人员:陈智张坤三胡志杰陈辰颜育奇曾臻刘茗蔚范琳芸
申请(专利权)人:国网福建省电力有限公司国网福建省电力有限公司漳州供电公司
类型:发明
国别省市:福建;35

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1