【技术实现步骤摘要】
一种自适应超特征融合的视觉跟踪方法
本专利技术涉及人工智能视频图像处理
,具体涉及一种自适应超特征融合的视觉跟踪方法。
技术介绍
当前,随着信息通信技术与云存储设备的不断迭代升级,利用人工智能技术取代人工劳力已成为现代科技发展的主流趋势,不但能够减轻生产劳动成本,而且能够有效提升生产工作效率。视觉目标跟踪技术又是人工智能众多领域中一项重要热门的研究方向,能够被广泛运用于视频监控系统、无人机、自动驾驶、智能机器人、以及虚拟现实等多个领域。虽然目标跟踪方法取得显著的精确性和鲁棒性,但其仍然面临多种外界因素的干扰和复杂外观变化的挑战,如遮挡、尺度变化、形变以及相似背景干扰等。设计一种能够适应多种外观环境挑战的跟踪方法是以实现准确鲁棒的跟踪是目前视觉跟踪领域重要的研究问题。一方面传统的手工特征表达不能提取目标的深层次语义信息,进而不能实现精确的目标定位。而高维的深层次卷积特征虽然能够保留完整的空间结构和高清的分辨率,但其对目标的外观变化较为敏感,进而难以适应复杂的外观变化。另一方面,传统的逐帧更新模型的方法容易引起模型的污染问题,长期积累容易引起跟踪漂移问题,最终导致跟踪失败。
技术实现思路
有鉴于此,本专利技术的目的在于提供一种为实现上述目的,本专利技术采用如下技术方案:一种自适应超特征融合的视觉跟踪方法,包括以下步骤:步骤S1:对输入图像序列分别提取深度特征和传统手工特征;步骤S2:构建尺度和位置滤波模型,计算生成手工特征和深度特征对应输出响应图; ...
【技术保护点】
1.一种自适应超特征融合的视觉跟踪方法,其特征在于,包括以下步骤:/n步骤S1:对输入图像序列分别提取深度特征和传统手工特征;/n步骤S2:构建尺度和位置滤波模型,计算生成手工特征和深度特征对应输出响应图;/n步骤S3:引入高斯约束优化方法控制生成的响应图使其服从高斯分布;/n步骤S4:分别计算手工特征和深度特征对应输出响应图的PSR值,并根据PSR值判断是否更新尺度和位置滤波模型;/n步骤S5:将手工特征和深度特征对应输出响应图输入尺度和位置滤波模型,实现视觉跟踪。/n
【技术特征摘要】
1.一种自适应超特征融合的视觉跟踪方法,其特征在于,包括以下步骤:
步骤S1:对输入图像序列分别提取深度特征和传统手工特征;
步骤S2:构建尺度和位置滤波模型,计算生成手工特征和深度特征对应输出响应图;
步骤S3:引入高斯约束优化方法控制生成的响应图使其服从高斯分布;
步骤S4:分别计算手工特征和深度特征对应输出响应图的PSR值,并根据PSR值判断是否更新尺度和位置滤波模型;
步骤S5:将手工特征和深度特征对应输出响应图输入尺度和位置滤波模型,实现视觉跟踪。
2.根据权利要求1所述的自适应超特征融合的视觉跟踪方法,其特征在于,所述位置滤波模型构建具体为:
A1:初始化模型参数,包括位置滤波输出标准差,滤波模型学习率,滤波器的正则化权重因子λ1和λ2,采用具有31bin的4×4网格单元大小的HOG特征,深度特征和手工特征初始化权重设置,尺度步长因子r,尺度级数S,尺度学习率η,采用M×N的网格单元表示搜索窗口大小,并且与目标框大小成比例;
A2:采用上下文感知滤波器作为基础跟踪器,用于预测目标的初始位置;
A3:学习上下文感知滤波器w和下一帧图像块z进行卷积运算,目标的位置即为响应图的最大值f(z),其检测表达式为:
其中,F-1为逆傅里叶变换,为卷积运算;
A4:采用线性插值法更新上下文感知滤波器系数,具体为如下公式:
其中,i为当前帧的序号,η为滤波模型学习率。
3.根据权利要求2所述的自适应超特征融合的视觉跟踪方法,其特征在于,所述步骤A2具体为:
步骤A21:对于上下文感知滤波器w,向量化高斯形变标签y,以及搜索窗口经循环移位形成的数据矩阵D0,通过优化如下目标函数:
其中,λ1和λ2为正则化权重因子,D0和Di为对应的循环矩阵。
步骤A22:经过求解得到上下文感知滤波器w在傅里叶域的封闭解为:
4.根据权利要求3所述的自适应超特征融合的视觉跟踪方法,其特征在于,所述尺度滤波模型构建,具体如下:
步骤B1:构建尺度判别滤波器,提取目标分层卷积特征,并进行线性加权融合:
f_deep=1×f_d...
【专利技术属性】
技术研发人员:陈智,张坤三,胡志杰,陈辰,颜育奇,曾臻,刘茗蔚,范琳芸,
申请(专利权)人:国网福建省电力有限公司,国网福建省电力有限公司漳州供电公司,
类型:发明
国别省市:福建;35
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。