【技术实现步骤摘要】
一种间歇性遮挡下的动态多目标识别方法
[0001]本专利技术涉及图像处理领域,具体为一种间歇性遮挡下的动态多目标识别方法。
技术介绍
[0002]多目标识别是计算机视觉中较为基础的研究问题,正在被广泛地应用于智慧监控、工业检测和人机交互等诸多领域,具有重要的研究和应用价值,但其仍面临复杂场景下的诸多挑战,如目标多且相互遮挡、环境光照变化明显、背景干扰等。
[0003]近年来,深度学习算法的深入研究进一步推动了环境感知性能的提升,在目标分类等任务上甚至达到或超过了人类识别的精度,因此,许多基于深度学习的目标识别方法被提出。相比于传统方法,基于深度学习的目标识别方法因其更强的泛化性和鲁棒性受到了广大研究者的关注。
[0004]目标相互遮挡在动态多目标识别过程中非常容易发生,传统方法在基于单帧图像目标检测的基础上,结合输入视频中前后两帧的目标特征来改善单个目标识别置信度较低的影响,进而提高目标的识别精度,但这类方法不能很好地获取相邻图像帧之间目标的特征信息,因此无法有效匹配目标及其运动轨迹,对于受较长时间遮挡的目标识别问题效果不佳。
[0005]近年来,一系列基于深度学习的多目标识别方法已被提出,例如Zhou等人在European Conference on Computer Vision提出使用中心网络(CenterNet)进行动态多目标识别,该方法通过提取目标在输入视频前后两帧中的边界框、热点图、运动偏移量特征信息并对目标及其运动轨迹进行匹配,在网络结构更为简化的基础上,取得了更高的动态目标识别 ...
【技术保护点】
【技术特征摘要】
1.一种间歇性遮挡下的动态多目标识别方法,其特征在于:该方法包括训练和测试两个阶段,其中,训练阶段由基于中心网络的目标识别模块,基于门控循环单元网络的特征提取模块以及基于匈牙利算法的目标轨迹匹配模块实现;测试阶段:训练完成后,将待识别的视频输入基于中心网络的目标识别模块,经过处理后再经基于匈牙利算法的目标轨迹匹配模块对目标及其运动轨迹进行匹配,即可实现动态多目标识别。2.根据权利要求1所述的一种间歇性遮挡下的动态多目标识别方法,其特征在于:基于中心网络的目标识别模块包括基准网络以及特征提取模块,基准网络采用DLA
‑
34网络结构,特征提取模块采用中心网络。3.根据权利要求1所述的一种间歇性遮挡下的动态多目标识别方法,其核心在于,训练过程如下:步骤1,训练数据集准备。步骤2:将总长度为T帧的训练视频数据输入基准网络,通过基准网络获取标记有目标种类及其边界框信息的相邻帧序列(x
t
‑1,x
t
),t=2,
…
,T,其中,x
t
表示标记有目标种类及其边界框信息的第t帧图像,目标种类信息用于识别目标,边界框信息用于计算目标中心点所在位置。步骤3:将基准网络获取的相邻帧序列(x
t
‑1,x
t
)输入特征提取模块,预测得到x
t+1
帧序列上所有目标中心点的运动偏移量和热点图,目标中心点的运动偏移量用于计算运动轨迹,热点图用于判断所标记的目标种类是否准确。步骤4:计算损失函数,其中,整体损失函数表达式更新如下:其中,T表示输入视频的序列长度,λ
f
,λ
s
和λ
O
为超参数,分别定义了整体损失函数中各个分支的权重,L
f
表示目标热点图的预测损失,具体采用基于局部损失的损失函数,其表达式如下:)其中,Y
cab
表示第t帧在位置(a,b)上属于种类c的目标在真实热点图上的对应值,表示由相邻帧序列(x
t
‑1,x
t
)预测得到的第t帧中相应位置的目标的热点图,N表示训练数据第t帧中的目标个数,α、β为超参数,表示遍历第t帧图像中所有位置上所有种类的目标;L
s
表示目标边界框位置的预测损失,采用基于L1损失的损失函数,其表达式如下:其中,表示基准网络预测的第t帧图像上第i个目标中心点位置的边界框位置,表
示第t帧图像上第i个目标中心点位置的边界框位置真实值;L
o
表示目标运动偏移量的预测损失,采用基于回归函数的损失函数,其表达式如下:其中表示在第t帧图像的每个边界框上目标i的运动轨迹,表示第t帧和第t
‑
1帧图像上目标i的中心点位置的真实值;表示基于更新后的目标特征信息M
t
,在输入的第t帧图像采用正定位头P
t
对目标中心点位置进行的有监督学习...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。