一种视频目标实时跟踪方法及系统技术方案

技术编号:18531016 阅读:74 留言:0更新日期:2018-07-25 18:10
本发明专利技术公开了一种视频目标实时跟踪方法及系统,该方法包括:对获取的视频训练集和视频测试集进行处理;建立由孪生卷积网络、单层卷积网络、双向长短时记忆网络、全连接层网络组成的视频目标跟踪网络模型,对此模型的网络参数初始化以及确定此模型的损失函数;将处理后的视频训练集中的图片对依次输出到上述模型中,确定视频目标的预测位置坐标;根据预测位置坐标、获取的视频目标的实际位置坐标、损失函数确定训练好的网络参数;根据训练好的网络参数、上述模型,对处理后的视频测试集中的视频目标进行实时跟踪。本发明专利技术通过采用视频目标跟踪网络模型,实时有效的跟踪视频目标,提高视频目标跟踪的精准度,扩大应用范围与应用场景。

【技术实现步骤摘要】
一种视频目标实时跟踪方法及系统
本专利技术涉及视频目标跟踪
,特别涉及一种视频目标实时跟踪方法及系统。
技术介绍
随着深度学习技术的发展,基于深度学习的视频目标跟踪技术应用的越来越广。视频目标跟踪是基于视频中物体的移动进行画框跟踪的一种目标跟踪技术。视频目标跟踪方法集成了深度学习、模式识别和数字图像处理等多种专业技术。视频目标跟踪关键有两点:(1)目标特征的提取;(2)跟踪的算法。深度学习能够实现图像特征提取和跟踪算法的实施,极大的提高了视频目标跟踪的精度。视频目标跟踪方法所使用的深度学习网络结构的设计往往会直接影响到视频目标跟踪的效果。因此设计一种合适的深度学习网络结构是提高视频目标跟踪精度的重要任务之一。2010年以前,视频目标跟踪领域一般采用一些传统跟踪方法,比如Meanshift、ParticleFilter和KalmanFilter,以及基于特征点的光流算法等。在2010年左右,视频目标跟踪方法通常分成基于产生式模型的方法和基于鉴别式模型的方法。前面所述的传统跟踪方法都可以归类为产生式模型的方法,而基于鉴别式模型的方法是指利用分类来做跟踪的方法,即把跟踪的目标作为前景本文档来自技高网...

【技术保护点】
1.一种视频目标实时跟踪方法,其特征在于,所述视频目标实时跟踪方法包括:获取视频训练集和视频测试集;对所述视频训练集和所述视频测试集进行预处理;建立视频目标跟踪网络模型;所述视频目标跟踪网络模型包括依次连接的孪生卷积网络模型、单层卷积网络模型、双向长短时记忆网络模型、全连接层网络模型;所述孪生卷积网络模型中两个卷积模块的参数相同,且所述孪生卷积网络模型中的两个输出拼接成一个输出;所述单层卷积网络模型为不补零的单层卷积网络模型;所述全连接层网络模型的输出为视频目标在第二帧视频图像中的预测位置坐标;确定所述视频目标跟踪网络模型的损失函数;对所述视频目标跟踪网络模型中的网络参数进行初始化;将预处理后...

【技术特征摘要】
1.一种视频目标实时跟踪方法,其特征在于,所述视频目标实时跟踪方法包括:获取视频训练集和视频测试集;对所述视频训练集和所述视频测试集进行预处理;建立视频目标跟踪网络模型;所述视频目标跟踪网络模型包括依次连接的孪生卷积网络模型、单层卷积网络模型、双向长短时记忆网络模型、全连接层网络模型;所述孪生卷积网络模型中两个卷积模块的参数相同,且所述孪生卷积网络模型中的两个输出拼接成一个输出;所述单层卷积网络模型为不补零的单层卷积网络模型;所述全连接层网络模型的输出为视频目标在第二帧视频图像中的预测位置坐标;确定所述视频目标跟踪网络模型的损失函数;对所述视频目标跟踪网络模型中的网络参数进行初始化;将预处理后的视频训练集中的图片对依次输出到初始化后的视频目标跟踪网络模型中,确定所述视频目标的预测位置坐标;所述图片对为所述视频训练集或者所述视频测试集中每相邻的两帧视频图像组成的图片对;获取所述视频目标的实际位置坐标;根据所述视频目标的预测位置坐标、所述视频目标的实际位置坐标以及所述损失函数,调整所述视频目标跟踪网络模型中的网络参数,得到训练好的网络参数;根据所述训练好的网络参数以及所述视频目标跟踪网络模型,对预处理后的视频测试集中的视频目标进行实时跟踪。2.根据权利要求1所述的视频目标实时跟踪方法,其特征在于,所述对所述视频训练集和所述视频测试集进行预处理,具体包括:将所述视频训练集和所述视频测试集中的视频序列中的所有视频帧中每相邻的两帧视频图像组成图片对;对每对所述图片对进行裁剪;裁剪方式包括:确定所述图片对中第一帧图像中所述视频目标的所在矩形框位置;以所述视频目标为中心,在所述第一帧图像上裁剪出所述矩形框三倍大小的矩形区域作为所述图片对的新的第一帧图像;所述图片对中的第二帧图像按照所述裁剪方式进行裁剪,得到的裁剪图片为所述图片对中新的第二帧图像。3.根据权利要求1所述的视频目标实时跟踪方法,其特征在于,所述将预处理后的视频训练集中的图片对依次输出到初始化后的视频目标跟踪网络模型中,确定所述视频目标的预测位置坐标,具体包括:采用孪生卷积网络模型,对视频训练集中的所述图片对依次进行卷积提取,得到两个子图;所述子图为视频目标特征;将两个所述子图进行拼接,得到一个特征子图块;采用单层卷积网络模型,对所述特征子图快进行卷积层、降维以及提出,得到处理后的特征子图块;将所述处理后的特征子图块依次输出到所述双向长短时记忆网络模型、所述全连接层网络模型,确定所述视频目标的预测位置坐标。4.根据权利要求3所述的视频目标实时跟踪方法,其特征在于,所述双向长短时记忆网络模型包括两个序列,分别为前向序列和后向序列,且每一个所述时序设有一个输出;所述时序具有记忆和遗忘之前所述时序的部分信息的特点;所述前向序列和所述后向序列的迭代次数相同,且所述迭代的次数由所述特征子图块的尺寸决定;每次迭代设有512个时序。5.根据权利要求2所述的视频目标实时跟踪方法,其特征在于,所述全连接层网络模型为两个;所述全连接层网络模型用于比较视频目标特征和搜索区域特征,输出视频目标的预测位置坐标;所述全连接层网络模型设有四个输出,且每个所述输出用于输出一个位置坐标,四个所述位置坐标为所述视频目标在所述矩形区域的左上角坐标和右下角坐标。6.根据权利要求1所述的视频目标实时跟踪方法,其特征在于,所述视频目标跟踪网络模型的损失函数为:f=f1(x)+f2(y)+f3(z)+g(l);其中,f1(x)=l2-loss(x)*wd是所述孪生卷积网络模型中每...

【专利技术属性】
技术研发人员:刘罡陈欣
申请(专利权)人:湖北工业大学
类型:发明
国别省市:湖北,42

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1