The invention discloses a comprehensive target tracking method based on channel feature fusion convolution neural network, which belongs to the field of computer vision. On the one hand, a new channel feature weighted convolution layer is added to the network structure, and a convolution neural network suitable for target tracking is constructed to extract depth features as appearance representation. On the other hand, the long-term classification prediction sub-network module and regression prediction sub-network module constructed before tracking are used to train the long-term classification prediction sub-network module and regression prediction sub-network module by collecting samples of the initial target information. In the tracking process, all candidate blocks are classified by the long-term classification prediction sub-network module, and are adapted according to their probability results belonging to the foreground class. It combines the long-term and short-term classification prediction sub-network module, regression prediction sub-network module and multi-template matching module to track. The method of the invention has strong robustness and high accuracy.
【技术实现步骤摘要】
一种基于深度特征融合卷积神经网络的综合式目标跟踪方法
本专利技术的内容涉及到计算机视觉领域,具体的应用是一种基于深度特征融合卷积神经网络的综合式目标跟踪方法。使用该专利技术中的方法能够使视频目标跟踪在复杂场景中的成功率和准确度得到有效的提高。
技术介绍
在现代社会中,社会信息化的发展速度越来越快,在人们的工作和生活中存在着大量的视频采集设备,这些设备记录和保存了大量的视频数据。一方面,对于这些数据的分析和处理依靠人工的方式将会逐渐变得异常困难,甚至可以说是不可行的。然而另一方面,针对这些视频数据,在实际的应用当中却存在着来自许多类不同应用的需求,在这其中主要是包括视频的安全监控、智能交通的管理、智能的人机交互系统、目标运动的分析以及机动交通工具的自动驾驶等,视频目标跟踪技术在视频分析、视频理解以及视频交互的各项具体应用中有着极为重要的作用,其是此类高阶的视频任务进行时一个需要依赖的基础技术。视频目标跟踪问题在计算机视觉领域当中是一个非常活跃的研究课题,但同时由于场景中可能存在的光照变化、尺度变化、姿态变化、目标遮挡等一些列的干扰因素,因此又十分具有挑战性。视频目标跟踪是指利用视频采集设备获取视频数据后,从视频中选定一个或者是多个物体作为跟踪目标,给出目标区域初始的中心位置和尺度大小信息,通过设计有效的目标跟踪方法对后续的视频帧中目标的中心位置和尺度大小信息进行预测,从而完成对目标的持续跟踪。尽管在人们的工作和生活中存在着大量的应用需要,需要基于视频的目标跟踪技术作为基础支撑,使用计算机视觉技术自动完成目标跟踪,能够使人们从大量繁琐低效的任务中解放出来,并为 ...
【技术保护点】
1.一种基于深度特征融合卷积神经网络的综合式目标跟踪方法,其特征在于,其包括下述步骤:(1)修改VGG‑M网络模型并加入通道特征融合的卷积层,将卷积部分作为共享的深度特征提取子网络,并将剩下部分作为序列特定的深度特征分类子网络,连接两者构造一个通道特征融合的卷积神经网络模型;(2)收集携带有目标位置和尺度信息的视频序列,对其中的每个视频序列根据标注提供的目标信息分别采集前景类和背景类的样本构成卷积神经网络模型的训练集;(3)将训练样本按照序列对应的方式组成批次,逐个序列的对卷积神经网络模型进行循环迭代训练,直到完成设定的循环次数或者达到预设的精度阈值;(4)对于新的视频序列,重新构造一个与之相对应的序列特定的特征分类子网络模块和一个序列特定的回归预测子网络模块,将该两个网络模块与共享的深度特征提取子网络相连接,从而构成新的序列目标跟踪网络模型;(5)利用新的视频序列首帧中的目标的位置和尺度的信息采集初始的前景类样本和背景类样本,并用该两种样本对新构造的序列特定的特征分类子网络模块进行训练,对于序列特定的回归预测子网络模块则使用的正样本进行训练,利用共享的深度特征提取子网络对初始目标进行 ...
【技术特征摘要】
1.一种基于深度特征融合卷积神经网络的综合式目标跟踪方法,其特征在于,其包括下述步骤:(1)修改VGG-M网络模型并加入通道特征融合的卷积层,将卷积部分作为共享的深度特征提取子网络,并将剩下部分作为序列特定的深度特征分类子网络,连接两者构造一个通道特征融合的卷积神经网络模型;(2)收集携带有目标位置和尺度信息的视频序列,对其中的每个视频序列根据标注提供的目标信息分别采集前景类和背景类的样本构成卷积神经网络模型的训练集;(3)将训练样本按照序列对应的方式组成批次,逐个序列的对卷积神经网络模型进行循环迭代训练,直到完成设定的循环次数或者达到预设的精度阈值;(4)对于新的视频序列,重新构造一个与之相对应的序列特定的特征分类子网络模块和一个序列特定的回归预测子网络模块,将该两个网络模块与共享的深度特征提取子网络相连接,从而构成新的序列目标跟踪网络模型;(5)利用新的视频序列首帧中的目标的位置和尺度的信息采集初始的前景类样本和背景类样本,并用该两种样本对新构造的序列特定的特征分类子网络模块进行训练,对于序列特定的回归预测子网络模块则使用的正样本进行训练,利用共享的深度特征提取子网络对初始目标进行深度特征的提取,并将提取的特征作为目标初始的特征模板,将目标初始区域的最末端卷积层输出作为特征处理,并将处理后的结果保存为初始的目标特征模板;(6)目标跟踪过程中使用到多种不同的目标特征模板,其中初始的历史目标特征模板的集合设置为空,上一帧的目标特征模板则设置为初始的目标特征模板;(7)利用最新的目标位置和尺度信息生成目标的候选区域,对目标的候选区域使用共享的深度特征提取子网络提取深度特征并分别计算深度特征属于前景类和背景类的分类概率;(8)根据所有候选区域的深度特征属于前景类概率结果判断目标外观的变化程度,将这些概率值与一个设定的阈值进行比较,将比较的结果作为一个条件,即是否所有候选区域属于前景类的概率值都大于该设定的阈值;(9)所有候选区域属于前景类的概率值都大于设定的阈值时,表明目标的外观变化程度不大,被长期分类预测子网络模块正确识别的概率较高,此时利用长期分类预测子网络模块和回归预测网络模块相结合进行分析计算综合的预测值;反之,则表明目标的外观发生了较大的变化,此时则新构造一个短期分类预测子网络模块,将长、短期分类预测子网络模块与多模板匹配模块相结合进行分析计算综合的预测值;(10)将预测值最高的候选块作为当前帧的目标跟踪结果,并将上一帧的目标特征模板更新为新的目标块特征,根据新的目标位置和尺度信息采集样本,将该样本加入到用于更新短期分类预测子网络模块的样本集合中,并分析所有候选区域属于前景类的概率,从而确定是否将该候选区域加入到长期分类预测子网络模块的样本集合中,以及是否生成新的历史目标特征模板和更新网络;结合计算得到所有候选区域的综合预...
【专利技术属性】
技术研发人员:王天江,冯平,赵志强,罗逸豪,冯琪,
申请(专利权)人:华中科技大学,
类型:发明
国别省市:湖北,42
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。