The invention discloses a method for tracking multiple target template based on CF and CNN, using the method of some fixed scale value of the present invention, in solving the convolution operation before the template size normalized, and then introduced the anti appropriate scale after getting the maximum response value; although in the existing DSST algorithm, the search for the optimal scale of three-dimensional space decomposition of the search for the best position in the two-dimensional space, the search mechanism of optimal scale in one-dimensional space, but the iterative slow and high computational complexity; and according to the real UAV platform movement speed at random, uncertain, using the method of fixed scale value, not only to meet the needs and tracking algorithm. To meet the real-time operation; feature extraction stage, the two features are extracted respectively, and trained two groups of different filters, according to the current target outside View and background changes, setting different weights, and performing the visual representation of the target. Then, the results obtained by different characteristics are fused, and the tracking results are obtained.
【技术实现步骤摘要】
一种基于CNN和CF的多模板目标跟踪方法
本专利技术属于计算机视觉
,涉及一种基于CNN和CF的多模板目标跟踪方法。
技术介绍
目标跟踪作为计算机视觉技术的重要组成部分,在车辆导航、人机交互、医学成像、视频监控等众多领域都有广阔的应用。目标跟踪的核心问题在于在给定视频第一帧中的目标位置,对之后每一帧进行目标定位。影响目标跟踪的因素主要有目标快速移动、光照变化、尺度变化、背景干扰及遮挡等因素。经过国内外学者的不断研究,目标跟踪的算法得到了迅速的发展。然而,随着无人机技术的不断发展,视频监控已经由传统的固定摄像头监控发展成基于无人机的动态监控形式,同时也在监控视频序列中引入了目标纵横比改变、外观模型视角变化等关键性问题。目前现有的跟踪算法在这些影响因素上表现不佳,无法完整地跟踪整个目标,从而严重地制约了目标跟踪技术在实际场景中的应用。在当前目标跟踪的研究领域中,主要包括两种方法:一类是基于对于目标本身进行描述和刻画的生成式模型;另一类旨在将目标和背景分离开的判别式模型。生成式模型重点在于建立目标外观模型的表征,而判别式模型将跟踪问题转换为目标和背景的二分类问题。 ...
【技术保护点】
一种目标跟踪方法,其特征在于,具体步骤包括:步骤一、首先通过开源的3D模型数据集TurboSquid获取目标的三维模型,通过对模型的三维旋转和放缩得到不同视角下的目标图片;然后通过卷积神经网络,离线训练得到不同视角下的目标图片与视角信息之间的对应关系;步骤二、在目标跟踪过程中,对于当前帧图像t,首先在目标区域内提取特征信息,然后利用特征信息计算得到相关滤波器的参数;当得到下一帧图像t+1的信息后,首先在下一帧图像t+1中提取特征,然后与图像t的相关滤波器参数进行卷积运算,在卷积后的结果中找最大的响应值,该最大响应值对应的位置与卷积运算结果的中心点之间的矢量即为目标的运动矢量 ...
【技术特征摘要】
1.一种目标跟踪方法,其特征在于,具体步骤包括:步骤一、首先通过开源的3D模型数据集TurboSquid获取目标的三维模型,通过对模型的三维旋转和放缩得到不同视角下的目标图片;然后通过卷积神经网络,离线训练得到不同视角下的目标图片与视角信息之间的对应关系;步骤二、在目标跟踪过程中,对于当前帧图像t,首先在目标区域内提取特征信息,然后利用特征信息计算得到相关滤波器的参数;当得到下一帧图像t+1的信息后,首先在下一帧图像t+1中提取特征,然后与图像t的相关滤波器参数进行卷积运算,在卷积后的结果中找最大的响应值,该最大响应值对应的位置与卷积运算结果的中心点之间的矢量即为目标的运动矢量信息;目标的运动矢量信息与当前帧目标的位置叠加得到目标在下一帧图像t+1的位置;步骤三、依次将当前帧图像t的目标大小乘以不同尺度值,得到对应的多个尺寸,根据每个尺寸,在步骤二中得到的目标在下一帧图像t+1的位置,对图像t+1分别进行切片,得到大小不同的图像片,再将这些图像片归一化成最初的目标大小;将归一化后的图像进行特征提取,再将该特征与步骤二中计算得到的相关滤波器进行卷积运算,将每一个尺度下的卷积结果中的最大响应值作为该尺度下的响应值;然后寻找不同尺度下的最大响应值,其对应的尺度作为当前目标的尺度大小;步骤四、步骤二相关滤波器卷积后的结果中,以最大峰值的位置为中心,其附近的11×11的区域内响应值求平均值作为信号处理中的峰值响应值,将区域内其余部分的平均响应值看作旁瓣响应值,将当前峰值响应值与旁瓣响应值的比值作为PSR值;判断PSR值是否低于设定阈值:如果是,则说明需要重检,执行步骤五;如果否,则说明不需要重检,步骤二得到的位置信息和步骤三得到的尺度大小为本轮目标跟踪的结果,并作为当前帧结果,返回步骤二继续跟踪目标;步骤五、在图像t+1之前的图像...
【专利技术属性】
技术研发人员:唐林波,韩煜祺,张增铄,周士超,赵保军,
申请(专利权)人:北京理工大学,
类型:发明
国别省市:北京,11
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。