【技术实现步骤摘要】
基于目标检测的交通视觉抗遮挡训练方法、装置及系统
[0001]本专利技术涉及视频图像处理
,具体为基于目标检测的交通视觉抗遮挡训练方法、装置及系统。
技术介绍
[0002]基于深度学习的目标检测算法训练方法及系统目的是训练目标检测算法,使其能够从给定的视频采样帧中精确定位和识别视觉目标。该技术在智能监控、智慧交通中有着很大应用前景,是对行人、车辆等视觉目标开展跟踪、分析、检索的基础。
[0003]然而,实际交通场景中的视觉目标形态各异,并且受到拍摄视角等影响而伴有大量遮挡,这使得构建实用化的目标检测算法训练方法及系统具有极大的挑战性,极易造成被检测目标的特征信息丢失,导致训练成本高、效果差,进而在目标检测时造成误检、漏检结果,并影响后续功能的准确性。具体地,交通场景中的视觉目标遮挡体现为视觉目标被环境物体(如建筑、道路指示牌)遮挡,视觉目标之间的相互遮挡。现阶段的目标检测算法训练系统在处理目标遮挡时主要采用多特征融合以及数据增广的方法。其中,多特征融合方法将深度网络中的多层特征进行融合,或联合使用人工视觉特征和 ...
【技术保护点】
【技术特征摘要】
1.一种基于目标检测的交通场景抗遮挡训练方法,其特征在于,所述方法是按如下步骤进行:S1:按采样系数对输入的视频序列进行图像采样和标注,获得原始图像及标注信息;S2:利用卷积神经网络处理原始图像,获得相应的浅层特征图;S3:将浅层特征图送入难样本级联区域推荐网络,获取难样本区域特征,并采用难样本级联区域推荐网络损失函数计算难样本级联损失;S4:在难样本区域特征上进行预测操作,得到难样本区域的位置及检测置信度,结合原始图像标注信息、难样本级联区域推荐网络计算得到的样本损失,使用反向传播算法进行网络训练;S5:输出算法训练结果。2.根据权利要求1所述的一种基于目标检测的交通场景抗遮挡训练方法,其特征在于,所述S1中视频序列、原始图像及标注信息的特点为:输入原始的视频序列为3通道RGB彩色图像;原始图像为按照采样系数获取的3通道RGB彩色图像;原始图像标注信息指该原始图像中视觉目标的类别信息及位置信息,其中类别信息表示为类别标签,位置信息表示为对应视觉目标的二维边界框。3.根据权利要求1所述的一种基于目标检测的交通场景抗遮挡训练方法,其特征在于,所述S1中采样系数的特点为:采样系数N为预先设定好的大于1的整数。4.根据权利要求1所述的一种基于目标检测的交通场景抗遮挡训练方法,其特征在于,所述S2中卷积神经网络的特点为:包括卷积层、批正则化层、ReLU层、Concat层、池化层等,输入是单个原始图像,输出是卷积神经网络特定层对应原始图像的特征图,所述特征图作为原始图像在特征空间上的外观表征。5.根据权利要求1所述的一种基于目标检测的交通场景抗遮挡训练方法,其特征在于,所述S3中难样本级联区域推荐网络获取难样本区域特征的特点为:将区域划分为前景候选区域以及背景候选区域的概率得分与预设好的阈值进行比较判断,获得难样本区域特征。6.根据权利要求5所述的一种基于目标检测的交通场景抗遮挡训练方法,其特征在于,所述难样本级联区域推荐网络获取难样本区域特征的比较判断包含四个阶段:第1阶段,生成每批1024个区域,并对这些区域采用softmax函数来完成分类,获得其为前景候选区域以及背景候选区域的概率得分,若得分高于设定的阈值,则该区域被判定为简单样本且...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。