一种基于视觉感知的移动目标检测方法技术

技术编号:38360906 阅读:15 留言:0更新日期:2023-08-05 17:30
本发明专利技术公开了一种基于视觉感知的移动目标检测方法,包括如下步骤:S1在特征提取层将GC模块替换为C3模块;S2构建AC

【技术实现步骤摘要】
一种基于视觉感知的移动目标检测方法


[0001]本专利技术涉及目标检测技术,具体是一种基于视觉感知的移动目标检测方法。

技术介绍

[0002]在传统的车道和内河监控系统中,一般都需要专门的工作人员根据固定摄像头所传输的视频图像进行主观判断,在发生险情事故发生后才会告知相关部门去处理。这样不仅加大人工成本,为第一时间抢险救援或打击犯罪留下时间也十分紧张。车道和内河航道监控环境和目标十分复杂,首先车道和内河环境背景复杂使得检测算法针对目标难以在低可视环境(雾天、夜晚)、背景杂乱下表征以及适应导致检查精确率不高,然后在车道中行驶的车辆和内河航道中航行的船舶大小尺寸不一,这对于目标检测网络对多尺度车辆或船舶特征提取带来了不小的挑战。
[0003]对于车道中的车辆和内河附近的船舶而言,低可视环境下全局特征提取困难,如何从全局视角对全局上下文建模,捕获长距离依赖关系是提升车辆和船舶目标检测精度的关键。还有车道和内河航道目标检测中有楼房、树木等背景信息干扰严重。若要提升检测精度,此时更需要保留丰富的语义信息、减少局部信息的丢失以及获得更大的感受野才能更好的定位检测车辆或船舶目标。另外车道和内河监控图像中目标普遍大小不一。如何改善多尺度融合方式和提升模型检测能力是避免检测过程中漏检误检,是提升目标检测精度的关键。
[0004]由于低可视环境下(雾天、夜晚)以及内陆地区强散射的干扰。在低可视环境下车辆或船舶目标检测领域中,因为在卷积神经网络中卷积只能在局部区域进行上下文建模,使得感受野受限,如果网络提取特征的方式若只有简单的卷积堆砌,这种情况类似于一直重复某类函数,会导致网络提取特征语义信息的缺失,不利于低可视环境下车辆或船舶目标特征提取。
[0005]在YOLOv5的Backbone层,输入图片经过多次卷积运算之后,进入SPPF模块后使用相同大小的最大池化层获取不同感受野特征,实现全局特征与局部特征的融合。但卷积操作提取特征再进行池化下采样的操作会导致局部信息的丢失,并且卷积操作提取复杂背景图像特征的能力有限,进而特征提取和特征融合能力下降导致检测精度不佳。
[0006]在卷积神经网络中,浅层网络可有效对细节信息进行表征,可以捕捉更多小尺度车辆或船舶信息,然而无法达到较强的特征语义信息表征能力。而深层网络的细节信息表征能力不佳,却对于特征语义信息的表征能力较强,可以捕获更多中、大尺度车辆或船舶信息。因此将深、浅网络多尺度特征信息进行融合,集成浅层以及深层网络的优势,从而可以提升车辆或船舶目标检测中目标定位以及分类的精度。YOLOv5 中的Neck结构是由FPN和在此基础上增加了一条自底向上的路径PAN构成了的PANet结构。PANet结构在特征图处理方面利用了语义以及细节特征信息,从而实现车辆或船舶多尺度特征融合。然而这种方式依然有一定的不足,主要是PAN的输入信息全部是由FPN处理过的,难以采用主干网络得到的原始信息参与融合,在目标检测中随着卷积网络深度增大的同时,小尺度车辆或船舶语义
信息更难保留,这会导致网络学习受限,在一定程度上影响到了检测结果的精度。
[0007]YOLOv5网络的层次较深,在不断执行卷积下采样过程之后可以通过输入图像中提取得到抽象的语义特征,然而也降低了特征图的尺寸,这对于小尺寸车辆或船舶可能带来的影响是特征信息的丢失,无法保留足够多的特征信息。结合上述分析可知,在小目标预测时采用深层特征难以满足要求。从YOLOv5结构上来看,YOLOv5的检测头有3个,依次在20
×
20、40
×
40、80
×
80的特征图中进行目标检测。由于我国车道和内河航道情况复杂导致检测到的图片中车辆或船舶大小不一,若一个车辆或船舶在图像中的像素尺寸占8个像素,根据输入图像的尺寸为640像素,即使在尺度最大80
×
80的特征图中,目标物所占据的尺度也仅有1像素;而如果目标物尺度小于8像素,则整个目标都会在特征图中消失,那么之前80
×
80尺寸检测层可能无法完成对图像中更小车辆或船舶的精准检测。

技术实现思路

[0008]本专利技术的目的是针对现有技术中存在的不足,而提出一种基于视觉感知的移动目标检测方法。这种方法检测精度高,在可视化图片或视频的车辆或船舶目标检测中能减少漏检误检。
[0009]实现本专利技术目的的技术方案是:一种基于视觉感知的移动目标检测方法,包括如下步骤:S1在特征提取层将GC模块替换为C3模块;S2构建AC

SPPF模块;S3特征融合网络PANet替换为BIFPN结构;S4增加四尺度检测头,检测目标。
[0010]所述步骤S1中在特征提取层将GC模块替换为C3模块的具体步骤为:S1

1图像通过预处理后进入特征提取层Bcakbone;S1

2将GC模块直接替换为C3模块;S1

3使用GC模块把特征提取层Backbone的特征图从浅层到深层提取特征;S1

4每个GC模块输出连接在特征融合Neck层。
[0011]所述步骤S2中构建AC

SPPF模块的具体步骤为:S2

1经过层层卷积将特征送入SPPF模块,进行特征提取和信息融合;S2

2 SPPF模块融合ACmix模块,采用构建残差结构方式构建AC

SPPF模块;S2

3 输入特征图经过卷积操作后,再经过ACmix加强信息聚合,以削弱复杂背景信息的干扰;S2

4 然后将步骤S2

3的特征图经过卷积核大小为1
×
1的CBS卷积,降低通道数,然后通过3个最大池化层获取不同感受野特征,实现全局特征与局部特征的融合;S2

5 再经过卷积核大小为1
×
1的CBS卷积模块对通道进行调整,恢复到原特征的通道数,最后通过残差结构与原始特征图相加融合,保留原特征中丰富的局部信息,然后输出特征。
[0012]所述步骤S3中特征融合网络PANet替换为BIFPN结构的具体步骤为:S3

1 首先将原特征融合网络PANet替换为加权双向特征金字塔网络BIFPN;S3

2 将步骤S2

5的特征送入BIFPN结构特征融合层;
S3

3 此时主干网络的原始信息通过两个跳跃连接和两个跨尺度连接参与融合;S3

4 通过BFConcat 层设置可学习权重参数,实现深浅层特征双向融合,增强局部感知以及网络层之间的特征传递能力,以确定各个尺度特征对于输出特征所产生的影响;S3

5 将融合好的特征送入检测层。
[0013]所述步骤S4中增加四尺度检测头的具体步骤为:S4

1 在Backbone层增加一次4倍下采样;S4
...

【技术保护点】

【技术特征摘要】
1.一种基于视觉感知的移动目标检测方法,其特征在于,包括如下步骤:S1在特征提取层将GC模块替换为C3模块;S2构建AC

SPPF模块;S3特征融合网络PANet替换为BIFPN结构;S4增加四尺度检测头,检测目标。2.根据权利要求1所述的基于视觉感知的移动目标检测方法,其特征在于,所述步骤S1中在特征提取层将GC模块替换为C3模块的具体步骤为:S1

1图像通过预处理后进入特征提取层Bcakbone;S1

2将GC模块直接替换为C3模块;S1

3使用GC模块把特征提取层Backbone的特征图从浅层到深层提取特征;S1

4每个GC模块输出连接在特征融合Neck层。3.根据权利要求1所述的基于视觉感知的移动目标检测方法,其特征在于,所述步骤S2中构建AC

SPPF模块的具体步骤为:S2

1经过层层卷积将特征送入SPPF模块,进行特征提取和信息融合;S2

2 SPPF模块融合ACmix模块,采用构建残差结构方式构建AC

SPPF模块;S2

3 输入特征图经过卷积操作后,再经过ACmix加强信息聚合,以削弱复杂背景信息的干扰;S2

4 然后将步骤S2

3的特征图经过卷积核大小为1
×
1的CBS卷积,降低通道数,然后通过3个最大池化层获取不同感受野特征,实现全局特征与局部特征的融合;S2

5 再经过卷积核大小为1
...

【专利技术属性】
技术研发人员:李晓欢魏畅陈倩唐欣
申请(专利权)人:桂林电子科技大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1