目标跟踪方法、目标跟踪装置及计算机可读存储介质制造方法及图纸

技术编号:21117343 阅读:35 留言:0更新日期:2019-05-16 09:28
本公开公开了一种目标跟踪方法、目标跟踪装置及计算机可读存储介质,涉及计算机技术领域。本公开采用并联双层卷积神经网络模型,在第一卷积层中输入当前帧图像中的目标搜索区域的第一图像数据,在第二卷积层中输入当前帧图像的前一帧图像中的目标所在区域的第二图像数据,并联的卷积层同时对图像进行处理,再输入全连接层,输出当前帧图像中的目标位置。由于神经网络模型可以离线进行训练,使用时可以直接应用,只通过一次前向传播即可输出目标位置,并且并联的卷积层能够进一步提高计算效率,从而使得对于图像中目标进行跟踪的效率得到整体的提高。

【技术实现步骤摘要】
目标跟踪方法、目标跟踪装置及计算机可读存储介质
本公开涉及计算机
,特别涉及一种目标跟踪方法、目标跟踪装置及计算机可读存储介质。
技术介绍
目前,固定翼无人机在着陆时,缺乏既实用又精确的自主导航设备,在很大程度上还依赖于地面遥控把飞机引向预定目标,操纵复杂、地面干扰因素多、事故频繁。地基式视觉辅助引导是提高固定翼无人机着陆自主性和安全性的有效手段之一。视觉传感器具有成本低廉、支撑技术丰富等特点,而且视觉信号抗干扰性强且属于被动传感器,利用可见光或红外传感器,不易于被侦察,隐蔽性好,应用性比较好,并且地面可以提供先进的成像设备和强大的计算支撑,可对空拍摄无人机的运动图像序列,采用合适的图像处理方法获取图像中目标的运动轨迹,再经坐标换算可获取无人机目标在空中的定位信息和速度信息。地基式视觉辅助引导过程中,对拍摄图像中的无人机进行跟踪和定位是整个引导过程中非常重要的环节。目前,一般采用基于Chan-Vese算法的目标跟踪方法。
技术实现思路
专利技术人发现:要实现无人机起降引导过程,引导设备的无人机定位信息更新频率要在25Hz以上才能满足控制回路的需求。目前基于Chan-Vese等算法的本文档来自技高网...

【技术保护点】
1.一种目标跟踪方法,包括:将视频中当前帧图像中的目标搜索区域的第一图像数据输入训练好的神经网络模型的第一卷积层;将所述当前帧图像的前一帧图像中的目标所在区域的第二图像数据输入所述神经网络模型的第二卷积层,其中,所述第一卷积层和第二卷积层并联,所述目标所在区域包含被跟踪的目标并且与所述目标搜索区域面积相等;将所述第一卷积层和第二卷积层的输出结果输入所述神经网络模型的全连接层,得到所述全连接层输出的当前帧图像中所述目标的位置。

【技术特征摘要】
1.一种目标跟踪方法,包括:将视频中当前帧图像中的目标搜索区域的第一图像数据输入训练好的神经网络模型的第一卷积层;将所述当前帧图像的前一帧图像中的目标所在区域的第二图像数据输入所述神经网络模型的第二卷积层,其中,所述第一卷积层和第二卷积层并联,所述目标所在区域包含被跟踪的目标并且与所述目标搜索区域面积相等;将所述第一卷积层和第二卷积层的输出结果输入所述神经网络模型的全连接层,得到所述全连接层输出的当前帧图像中所述目标的位置。2.根据权利要求1所述的目标跟踪方法,其中,采用以下方法确定所述前一帧图像中的目标所在区域:获取前一次神经网络模型全连接层输出的所述前一帧图像中所述目标的位置,所述目标的位置用所述目标的边界框表示;根据所述目标的边界框区域与所述当前帧图像中的目标搜索区域的面积比,将所述目标的边界框区域缩放到与所述目标搜索区域面积相等,作为所述前一帧图像中的目标所在区域。3.根据权利要求2所述的目标跟踪方法,所述将所述目标的边界框区域缩放到与所述目标搜索区域面积相等包括:根据以下公式确定所述前一帧图像中的目标所在区域的两个斜对角顶点坐标(xA,yA)和(xB,yB):(xA,yA)和(xB,yB)分别表示所述前一帧图像中的目标所在区域的两个斜对角顶点A和B的坐标,(xa,ya)和(xb,yb)分别表示所述目标的边界框的两个斜对角顶点a和b的坐标,k表示所述目标的边界框区域与所述当前帧图像中的目标搜索区域的面积比;将所述(xA,yA)和(xB,yB)确定的矩形区域作为所述前一帧图像中的目标所在区域。4.根据权利要求1所述的目标跟踪方法,还包括:根据拍摄所述视频的摄像机的焦距、所述目标的高度以及所述目标距离所述摄像机的距离调整输出的当前帧图像中所述目标的位置。5.根据权利要求4所述的目标跟踪方法,其中,所述目标的位置用所述目标的边界框表示;采用以下方法调整输出的当前帧图像中所述目标的位置:将所述目标的高度与所述摄像机的焦距的乘积除以所述目标到所述摄像机的距离,得到所述目标在当前帧图像中的高度;以所述目标的边界框区域的中心为中心,调整所述目标的边界框,使调整后的目标的边界框的宽度等于得到的所述目标在当前帧图像中的高度。6.根据权利要求1所述的目标跟踪方法,还包括:根据首帧图像中所述目标的位置、拍摄首帧图像时所述目标距离摄像机的距离、以及拍摄当前帧图像时所述目标距离摄像机的距离,调整输出的当前帧图像中所述目标的位置。7.根据权利要求6所述的目标跟踪方法,其中,所述目标的位置用所述目标的边界框表示;采用以下方法调整输出的当前帧图像中所述目标的位置:将首帧图像中所述目标的边界框的长度与拍摄首帧图像时所述目标到摄像机的距离的乘积,除以拍摄当前帧图像时所述目标到摄像机的距离,得到所述目标在当前帧图像中的长度;以所述目标的边界框区域的中心为中心,调整所述目标的边界框,使调整后的目标的边界框的长度等于所述目标在当前帧图像中的长度。8.根据权利要求1-7任一项所述的目标跟踪方法,还包括:采用以下方法训练所述神经网络模型:将训练样本中当前帧图像中的目标搜索区域的第三图像数据输入所述神经网络模型的第一卷积层;将训练样本中所述当前帧图像的前一帧图像中的目标所在区域的第四图像数据输入所述神经网络模型的第二卷积层;将所述第一卷积层和第二卷积层的输出结果输入全连接层,得到全连接层输出的当前帧图像中所述目标的位置,计算输出的当前帧图像中所述目标的位置与标注的当前帧图像中所述目标的位置的误差;将当前帧的下一帧图像更新为当前帧图像;重复上述步骤,直至得到训练样本中每一帧图像中所述目标的位置与标注的该帧图像中所述目标的位置的误差;根据所述每一帧图像中所述目标的位置与标注的该帧图像中所述目标的位置的误差调整所述神经网络模型的参数,使得各帧图像中所述目标的位置与标注的该帧图像中所述目标的位置的误差和最小。9.一种目标跟踪装置,包括:第一图像输入模块,将视频中当前帧图像中的目标搜索区域的第一图像数据输入训练好的神经网络模型的第一卷积层;第二图像输入模...

【专利技术属性】
技术研发人员:门春雷
申请(专利权)人:北京京东尚科信息技术有限公司北京京东世纪贸易有限公司
类型:发明
国别省市:北京,11

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1