一种基于深度特征融合的模板匹配跟踪方法及系统技术方案

技术编号:27194755 阅读:12 留言:0更新日期:2021-01-31 11:46
本发明专利技术提出了一种基于深度特征融合的模板匹配跟踪方法及系统,并通过以下步骤实现:步骤一、获取视频数据,并将视频第一帧图像输入深度卷积网络;步骤二、深度卷积网络接收图像帧信息,进行特征提取并输出;步骤三、获取根据特征信息估计出的目标位置;步骤四、判断目标类别,并根据类别信息修正目标框;步骤五、提取下一帧视频数据并输入深度卷积网络,进行特征提取;步骤六、根据步骤五提取的特征图,利用上一帧的目标特征进行模板匹配;步骤七、输出当前帧中目标位置;步骤八、判断视频读取是否结束,满足结束条件时完成目标跟踪,不满足时跳转至步骤五。本发明专利技术通过对目标的检测,针对视频中目标所在位置的进行判定,实现目标跟踪。踪。踪。

【技术实现步骤摘要】
一种基于深度特征融合的模板匹配跟踪方法及系统


[0001]本专利技术涉及一种基于深度特征融合的模板匹配跟踪方法及系统,特别是涉及目标跟踪


技术介绍

[0002]随着计算机技术的发展,对于目标的检测、分类、分割等领域,基于深度学习的检测方法逐渐占据主导地位。由于实际场景中,遮挡、光照、目标非刚性等因素影响,目标跟踪的准确性和鲁棒性仍然存在问题。
[0003]现有技术中,在采用深度特征流处理图像时,对过滤静止物体建立运动物体的特征采用关键帧移动物体特征传播到当前帧的措施,该技术处理过程容易出现漂移,导致鲁棒性不够。同时,在获取深度帧以及特征信息数据库需要额外的存储花销,计算所有参考轮廓的特征信息集合逐一计算匹配,导致实时性得不到实际应用过程中的满足。

技术实现思路

[0004]专利技术目的:一个目的是提出一种基于深度特征融合的模板匹配跟踪方法,以解决现有技术存在的上述问题。进一步目的是提出一种实现上述方法的模板匹配跟踪系统。
[0005]技术方案:一种基于深度特征融合的模板匹配跟踪方法,包括以下步骤:步骤一:获取视频数据,并将视频第一帧图像输入深度卷积网络;步骤二:深度卷积网络接收图像帧信息,进行特征提取并输出;步骤三:获取根据特征信息估计出的目标位置;步骤四:判断目标类别,并根据类别信息修正目标框;步骤五:提取下一帧视频数据并输入深度卷积网络,进行特征提取;步骤六:根据步骤五提取的特征图,利用上一帧的目标特征进行模板匹配;步骤七:输出当前帧中目标位置;步骤八:判断视频读取是否结束,满足结束条件时完成目标跟踪,不满足时跳转至步骤五。
[0006]在进一步的实施例中,所述步骤二进一步为:用于提取图像帧信息特征的深度卷积网络,采用欧氏距离作为回归的损失函数,并选择focal loss作为分类损失函数对深度卷积网络进行学习能力的优化;所述欧氏距离作为回归的损失函数进一步为:式中,表示目标个数,表示当前目标索引,上标2表示范数的平方,下标2表示向量元素绝对值的平方和在开方,表示深度卷积网络中当前图像帧作为计算样本在类别划分中对应的位置参数,表示深度卷积网络中目标图像帧作为划分类别对应的位置参数;所述focal loss作为分类损失函数进一步引出二分类交叉损失函数,加入参数因子,
并将网络关注度置于困难的、错分的样本;其中所述二分类交叉损失函数为:式中,表示经过激活函数后的输出;所述参数因子为alpha和gamma,即:式中,表示平衡因子,表示样本重要性。
[0007]在进一步的实施例中,所述步骤四进一步为:根据设定的参数类型,将步骤三中处于目标位置的跟踪目标,划分为便于区分的不同的形态、不同类型的类别;根据划分出的类别信息,输入目标真实尺寸,根据距离,估算目标长宽,模版匹配的结果,修正目标框的位置。
[0008]在进一步的实施例中,所述步骤六进一步为:根据上一帧的目标位置,在当前帧特征图对应的目标位置附近,扩大已定义大小的区域进行目标跟踪;首先,通过上一帧选定目标所在位置,确定当前帧中初始目标框的候选区位置;其次,按照预设像素值,进行目标框的移动,产生领域目标框;再次,利用相似度匹配,计算领域目标框中的图像特征与跟踪目标的图像特征相似度值;从次,将计算出的相似度值与预定阈值进行对比,当满足阈值时,将计算出的领域目标框作为当前帧目标所在位置的候选;最后,当相似度匹配不低于预定次数时,终止目标框的移动,并选取相似度值最高的领域目标框,作为当前帧中目标所在的位置框。
[0009]一种基于深度特征融合的模板匹配跟踪系统,用于实现一种基于深度特征融合的模板匹配跟踪方法,包括:用于获取目标图像信息的第一模块;用于提取特征信息的第二模块;用于判断目标类型的第三模块;用于获取目标位置第四模块;用于进行数据处理的第五模块。
[0010]在进一步的实施例中,所述第一模块进一步包括提取模块、预处理模块;其中提取模块对视频中的目标信息进行读取。预处理模块用于对提取模块提取出的图片信息进行预处理;所述预处理进一步将待输入第二模块中的图片信息尺寸,设置为符合第二模块使用的大小。
[0011]在进一步的实施例中,所述第二模块进一步接收第一模块中进行预处理后的图片信息,并将其输入至深度卷积网络中进行特征提取。
[0012]在进一步的实施例中,所述第三模块进一步根据设定的参数类型,将跟踪目标,划分为便于区分的不同的形态、不同类型的类别;同时,利用第五模块,根据划分出的类别信息,利用目标真实尺寸,根据距离,估算目标长宽,模版匹配的结果,修正目标框所在的位置。
[0013]在进一步的实施例中,所述第四模块进进一步包括:初始位置获取模块、当前模块;所述初始位置获取模块用于根据第一帧在第一模块获取的特征信息,利用第五模块进行目标位置的确定;所述当前模块用于上一帧中目标位置,通过目标框的移动得到候选目
标框,并采用第五模块进行数据处理,从而获取当前的帧中,目标所在位置的目标框。
[0014]在进一步的实施例中,所述第五模块用于对数据进行处理,进一步为包括相似度计算模块、比例计算模块、NMS处理模块、误差计算模块;所述相似度计算模块用于计算图片信息之间的相似程度;所述比例计算模块用于根据目标真实大小合理规划目标框的选定的大小;所述NMS处理模块用于对目标值进行处理,保留最大置信度的候选框为目标框;所述误差计算模块用于计算误差值,并将其作为检测修正的依据。
[0015]有益效果:本专利技术提出了一种基于深度特征融合的模板匹配跟踪方法及实现该方法的系统,针对目标跟踪中不稳定且占用耗时间长的问题,利用深度学习提取有效特征,并输出类别信息,在一定的有效区域内利用上一帧的特征以及类别信息对应的尺度,进行跟踪,在目标跟踪的鲁棒性方面产生质变的提高,且同时抑制了跟踪目标的抖动与漂移。
附图说明
[0016]图1为本专利技术的方法实现流程图。
[0017]图2为本专利技术的数据流向图。
[0018]图3为本专利技术的网络结构图。
具体实施方式
[0019]本专利技术通过一种基于深度特征融合的模板匹配跟踪方法及实现该方法的系统,实现目标跟踪的目的。下面通过实施例,并结合附图对本方案做进一步具体说明。
[0020]在本申请中,我们提出了一种基于深度特征融合的模板匹配跟踪方法及实现该方法的系统,其中包含的一种基于深度特征融合的模板匹配跟踪方法,如附图1所示,为本专利技术方法实现流程图,具体划分为以下步骤:步骤一:获取视频数据,并将视频第一帧图像输入深度卷积网络;该步骤进一步对获取的视频数据进行预处理,具体为将待输入深度卷积网络中的图像尺寸,处理为深度卷积网络可接受的大小。
[0021]步骤二:深度卷积网络接收图像帧信息,进行特征提取并输出深度特征图F0;该步骤中用于提取图像帧信息特征的深度卷积网络,采用欧氏距离作为回归的损失函数,并选择focal loss作为分类损失函数对深度卷积网络进行学习能力的优化。
[0022]其中,欧氏距离作为回归的损失函数进本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于深度特征融合的模板匹配跟踪方法,其特征在于,包括:步骤一:获取视频数据,并将视频第一帧图像输入深度卷积网络;步骤二:深度卷积网络接收图像帧信息,进行特征提取并输出;步骤三:获取根据特征信息估计出的目标位置;步骤四:判断目标类别,并根据类别信息修正目标框;步骤五:提取下一帧视频数据并输入深度卷积网络,进行特征提取;步骤六:根据步骤五提取的特征图,利用上一帧的目标特征进行模板匹配;步骤七:输出当前帧中目标位置;步骤八:判断视频读取是否结束,满足结束条件时完成目标跟踪,不满足时跳转至步骤五。2.根据权利要求1所述的一种基于深度特征融合的模板匹配跟踪方法,其特征在于,所述步骤二进一步为:用于提取图像帧信息特征的深度卷积网络,采用欧氏距离作为回归的损失函数,并选择focal loss作为分类损失函数对深度卷积网络进行学习能力的优化;所述欧氏距离作为回归的损失函数进一步为:式中,表示目标个数,表示当前目标索引,上标2表示范数的平方,下标2表示向量元素绝对值的平方和在开方,表示深度卷积网络中当前图像帧作为计算样本在类别划分中对应的位置参数,表示深度卷积网络中目标图像帧作为划分类别对应的位置参数;所述focal loss作为分类损失函数进一步引出二分类交叉损失函数,加入参数因子,并将网络关注度置于困难的、错分的样本;其中所述二分类交叉损失函数为:式中,表示经过激活函数后的输出;所述参数因子为alpha和gamma,即:式中,表示平衡因子,表示样本重要性。3.根据权利要求1所述的一种基于深度特征融合的模板匹配跟踪方法,其特征在于,所述步骤四进一步为:根据设定的参数类型,将步骤三中处于目标位置的跟踪目标,划分为便于区分的不同的形态、不同类型的类别;根据划分出的类别信息,输入目标真实尺寸,根据距离,估算目标长宽,模版匹配的结果,修正目标框的位置。4.根据权利要求1所述的一种基于深度特征融合的模板匹配跟踪方法,其特征在于,所述步骤六进一步为:根据上一帧的目标位置,在当前帧特征图对应的目标位置附近,扩大已定义大小的区域进行目标跟踪;首先,通过上一帧选定目标所在位置,确定当前帧中初始目标框的候选区位置;其次,按照预设像素值,进行目标框的移动,产生领域目标框;再次,利用相似度匹配,
计算领域目标框中的图像特征与跟踪目标的图像特征相似度值;从次,将计算出的相似度值与预定...

【专利技术属性】
技术研发人员:陈志轩
申请(专利权)人:中汽创智科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1