一种基于VGG深度网络的视觉目标跟踪方法技术

技术编号:19180107 阅读:45 留言:0更新日期:2018-10-17 00:53
本发明专利技术揭示了一种基于VGG深度网络的视觉目标跟踪方法,包括如下步骤:S1、编译MatConvNet的运行环境;S2、构建VGG深度神经网络;S3、进行视频帧输入,并判断输入帧是否为初始帧,若输入帧为非初始帧,则进入S4,若输入帧为初始帧,则跳过S4、进入S5;S4、进行目标新状态估计,随后进入S5;S5、进行滤波器模型的在线更新。本发明专利技术与传统的视觉目标跟踪方法相比,在特征上包含了更多的语义信息,可以有更高的跟踪精度。而与利用高层深度特征的视觉目标跟踪方法相比,本发明专利技术所使用的低层数据既可以节约计算损耗,而又不缺失语义信息。因此,本发明专利技术在跟踪精度和跟踪速度上做了权衡,获得了优异的跟踪性能。

A visual target tracking method based on VGG deep network

The invention discloses a visual object tracking method based on VGG depth network, including the following steps: S1, compiling MatConvNet operating environment; S2, constructing VGG depth neural network; S3, input video frame, and determine whether the input frame is an initial frame, if the input frame is not an initial frame, then enter S4, if the input frame is a VGG depth neural network. Initial frame, then skip S4, enter S5; S4, target new state estimation, then enter S5; S5, filter model online update. Compared with the traditional visual target tracking method, the invention contains more semantic information on features, and has higher tracking accuracy. Compared with the visual target tracking method using high-level depth features, the low-level data used in the present invention can not only save calculation loss, but also do not lack semantic information. Therefore, the invention has a trade-off between tracking accuracy and tracking speed, and achieves excellent tracking performance.

【技术实现步骤摘要】
一种基于VGG深度网络的视觉目标跟踪方法
本专利技术涉及一种视觉目标跟踪方法,尤其涉及一种基于VGG深度网络的视觉目标跟踪方法,属于计算机视觉与视觉跟踪

技术介绍
视觉目标跟踪是计算机视觉领域中非常具有挑战性的问题之一。视觉目标跟踪的任务是在视频序列中给定目标在初始帧的状态(即位置、尺寸等信息)的情况下,估计目标在后续帧的状态。虽然近年来视觉目标跟踪技术发展迅速,但是由于在跟踪过程中目标遮挡、外观形变、运动模糊、快速运动、光照变化、尺度变化和背景复杂等因素的影响,视觉目标跟踪技术的应用仍然困难重重。视觉目标跟踪方法主要分为生成式和鉴别式两类。生成式模型从统计的角度表示数据的分布情况,能够反映同类数据的相似度;鉴别式模型通过寻找不同类别之间的最优分类,反映异类数据之间的差异。最近几年鉴别式方法的不断提出,加速了视觉目标跟踪技术的发展,特别是基于鉴别式相关滤波器的方法。2010年Bolme等人首次提出使用相关滤波器原理进行视觉目标跟踪(即MOSSE方法),该跟踪器使用灰度特征、最小误差平方和优化思想和在线快速更新等技术手段,实现对视觉目标的位置跟踪,且处理速度达到了669帧/秒本文档来自技高网...

【技术保护点】
1.一种基于VGG深度网络的视觉目标跟踪方法,其特征在于,包括如下步骤:S1、编译MatConvNet的运行环境;S2、构建VGG深度神经网络;S3、进行视频帧输入,并判断输入帧是否为初始帧,若输入帧为非初始帧,则进入S4,若输入帧为初始帧,则跳过S4、进入S5;S4、进行目标新状态估计,随后进入S5;S5、进行滤波器模型的在线更新。

【技术特征摘要】
1.一种基于VGG深度网络的视觉目标跟踪方法,其特征在于,包括如下步骤:S1、编译MatConvNet的运行环境;S2、构建VGG深度神经网络;S3、进行视频帧输入,并判断输入帧是否为初始帧,若输入帧为非初始帧,则进入S4,若输入帧为初始帧,则跳过S4、进入S5;S4、进行目标新状态估计,随后进入S5;S5、进行滤波器模型的在线更新。2.根据权利要求1所述的一种基于VGG深度网络的视觉目标跟踪方法,其特征在于,S2中所述构建VGG深度神经网络,包括如下步骤:S21、导入预训练好的VGG深度网络模型并更新模型至最新版本;S22、裁剪VGG网络的层数量,将VGG网络的层裁剪至3层。3.根据权利要求1所述的一种基于VGG深度网络的视觉目标跟踪方法,其特征在于,S4中所述目标新状态估计,包括如下步骤:S41、第一次VGG深度特征提取;S42、目标状态估计。4.根据权利要求3所述的一种基于VGG深度网络的视觉目标跟踪方法,其特征在于,S41中所述VGG深度特征提取,包括如下步骤:S411、调整输入帧的尺寸至网络要求的尺寸,采用双线性插值的方法对输入进行缩放;S412、将调整了尺寸的输入帧减去网络中的正则化图像参数,对数据进行标准化处理;S413、计算网络的输出,并提取网络第三层的输出作为特征;S414、对提取的特征进行数据标准化,采用如下的标准化方法,其中,xi是特征数据中的每一个元素,N是元素个数,p是表示标准化强度的一个参数;S415、对标准化的数据进行尺寸调整,匹配相关滤波器的维度和期望输出的维度。5.根据权利要求3所述的一种基于VGG深度网络的视觉目标跟踪方法,其特征在于,S42中所述目标状态估计,包括如下步骤:S421、将深度特征转至傅里叶域,并与傅...

【专利技术属性】
技术研发人员:王彩玲徐烨超荆晓远
申请(专利权)人:南京邮电大学
类型:发明
国别省市:江苏,32

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1