基于深度强化学习的遥感视频遮挡目标跟踪方法技术

技术编号:26651726 阅读:48 留言:0更新日期:2020-12-09 00:53
本发明专利技术公开了一种基于深度强化学习的遥感视频遮挡目标跟踪方法,主要解决现有技术对遮挡目标检测准确率低的问题。其方案为:1)将每帧视频图像输入到深度强化学习网络进行特征提取,获得动作和状态信息;2)根据1)的结果,通过动作驱动方式获得运动矢量、置信值及目标的位置和大小;3)比较置信值与阈值的大小判断是否正确检测到目标:若是,则返回1);否则,利用视频的时空背景、目标外观模型和运动矢量,获得目标的遮挡信息;4)根据遮挡信息,驱动强化学习的动作获得遮挡目标的位置和大小;5)重复1)‑4),直到检测出所有序列。本发明专利技术提高了遥感视频中复杂多样的弱小目标检测率,可应用于对飞机、舰船或车辆的检测识别。

【技术实现步骤摘要】
基于深度强化学习的遥感视频遮挡目标跟踪方法
本专利技术属于图像处理
,特别是一种涉及遥感视频中对遮挡目标的跟踪方法,可应用于检测识别飞机、舰船或车等目标。
技术介绍
视觉目标跟踪因其在计算机视觉领域中的重要地位而受到越来越多的关注。给定视频中第一帧的目标坐标位置,视觉目标跟踪是计算目标在下一帧视频中的确切位置。它是计算机视觉领域中最基本的问题之一,在人机交互、自动监视、军事制导、交通监控、车辆导航等领域有着广泛的应用。近年来,已有的视觉目标跟踪算法取得了很大的成功。然而,由于被跟踪对象特征的多样性和外部环境的复杂性,视觉目标跟踪一直是一个极具挑战性的课题。一种鲁棒的目标跟踪算法必须能够解决跟踪过程中遇到的各种困难,如外观畸变、光照变化、快速运动和运动模糊、相似的背景干扰、平面外旋转、平面内旋转、尺度变化、遮挡和出视野等。传统的跟踪方法一般分为生成式模型方法和判别式模型方法。目前比较流行的方法是判别式模型方法。生成式模型方法是指对当前帧中的目标区域进行建模,在下一帧中找到与模型最相似的区域,如卡尔曼滤波、粒子滤波等方法。例如,在当前本文档来自技高网...

【技术保护点】
1.一种基于深度强化学习的遥感视频遮挡目标跟踪方法,包括如下:/n(1)将遥感视频序列一帧一帧的图像输入到深度强化学习网络进行特征提取,并微调网络以适应新的数据,获得强化学习中的动作和状态信息;/n(2)根据(1)中所提取的特征及状态信息,通过动作驱动方式获得运动矢量、置信值A及当前帧目标边界框所要移动的方向和距离,根据移动的方向和距离得到当前帧目标的位置和大小;/n(3)设定检测阈值T=0.5,比较置信值A与阈值T的大小,判断当前帧是否正确检测到目标:/n如果A≥T,则判定当前帧已正确检测到目标,并将所获得的当前帧目标框位置信息作为下一帧的输入,返回(1),直到检测出遥感视频中所有目标处于未...

【技术特征摘要】
1.一种基于深度强化学习的遥感视频遮挡目标跟踪方法,包括如下:
(1)将遥感视频序列一帧一帧的图像输入到深度强化学习网络进行特征提取,并微调网络以适应新的数据,获得强化学习中的动作和状态信息;
(2)根据(1)中所提取的特征及状态信息,通过动作驱动方式获得运动矢量、置信值A及当前帧目标边界框所要移动的方向和距离,根据移动的方向和距离得到当前帧目标的位置和大小;
(3)设定检测阈值T=0.5,比较置信值A与阈值T的大小,判断当前帧是否正确检测到目标:
如果A≥T,则判定当前帧已正确检测到目标,并将所获得的当前帧目标框位置信息作为下一帧的输入,返回(1),直到检测出遥感视频中所有目标处于未遮挡的序列;
如果A<T,则判定目标处于遮挡状态,执行(4);
(4)利用遥感视频数据中的时空背景和(2)中动作驱动所得的运动矢量,获得目标的平均移动方向、速度大小、方向旋转变化及加速度大小这四项遮挡信息;
(5)根据(4)获得的遮挡信息,结合遥感视频序列中目标未遮挡时的状态信息,驱动强化学习的动作,获得目标边界框所要移动的方向和距离,根据移动的方向和距离得到遥感视频序列中被完全遮挡目标的位置和大小;
(6)重复步骤(1)~(5),直到检测出遥感视频中的所有序列,完成其跟踪过程。


2.根据权利要求1所述的方法,其中(1)中的深度强化学习网络,包括三个卷积层和四个全连接层,其结构关系是:第一卷积层conv1→第二卷积层conv2→第三卷积层conv3→第一全连接层fc1→第二全连接层的并联。
第一卷积层的卷积核大小为7×7,第二卷积层的卷积核大小为5×5,第三卷积层和第一全连接层的卷积核大小均为3×3,第二全连接层、第三全连接层和第四全连接层的卷积核大小均为1×1,第一全连接层和第二全连接层有512个输出节点,第三全连接层有11个输出节点,第四全连接层有2个输出节点。


3.根据权利要求1所述的方法,其中(1)中将遥感视频序列一帧一帧的图像输入到深度强化学习网络进行特征提取,其实现如下:
(1a)在遥感视频序列的第一帧给定目标的位置和大小信息,即给定目标边界框,截取以目标为中心112x112像素的彩色图像块p∈R112×112×3,作为深度强化学习网络的输入;
(1b)通过深度强化学习网络,提取遥感图像中目标的动作A、状态S和奖赏函数R(st,at,st+1)。
所属动作A,其包含左、右、上...

【专利技术属性】
技术研发人员:侯彪崔艳雨焦李成吴倩任博马晶晶马文萍
申请(专利权)人:西安电子科技大学
类型:发明
国别省市:陕西;61

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1