改进YOLOv4网络的行人检测方法、系统、设备及介质技术方案

技术编号:37382961 阅读:17 留言:0更新日期:2023-04-27 07:24
本发明专利技术属于目标检测技术领域,公开了一种改进YOLOv4网络的行人检测方法、系统、设备及介质,构建预设的YOLOv4目标检测模型,包括输入端、Backbone基准网络、Neck中间层、PANet网络以及Head输出层,其中,所述Backbone基准网络采用预设的GhostNet网络;将所述PANet网络中的普通3

【技术实现步骤摘要】
改进YOLOv4网络的行人检测方法、系统、设备及介质


[0001]本专利技术属于目标检测
,尤其涉及一种改进YOLOv4网络的行人检测方法、系统、设备及介质。

技术介绍

[0002]目前,近年来,随着计算机硬件领域的不断发展以及深度学习技术的进一步提升,基于深度学习的目标检测算法逐渐在目标检测领域得到广泛的应用。目前,主流的目标检测算法按阶段划分为两类:第一类是双阶段目标检测算法,代表算法有R

CNN、Fast R

CNN、Faster R

CNN等算法;另一类是单阶段目标检测算法,代表算法有YOLO系列算法、SSD系列算法。这两类算法在实际应用中各有其优劣性,双阶段目标检测算法的检测精度一般要比单阶段算法高,但就检测速度而言,单阶段算法要明显优于前者。
[0003]基于深度学习的行人检测算法也受到了人们的广泛关注,行人检测在当代智能监控视频领域有着广泛的应用,在解决城市安防、交通监测、大数据人流量统计等方面都有着至关重要的作用。因此,行人检测算法的研究与应用具有非常良好的发展前景。但随着行人检测领域需求的不断提升,行人目标检测算法的结构也越来越复杂,模型的大小和计算量越来越大,绝大多数算法都无法部署在移动端平台进行实时性检测。为了减小模型的参数量同时提高算法的检测速度以及实时性,轻量化网络也就应运而生。MobileNet系列网络是由谷歌团队提出来的,MobileNetV1是利用深度可分离卷积代替普通卷积,MobileNetV2在前者的基础上,采用逆残差结构减小模型的参数量,MobileNetV3是以更少的浮点数来获取优良的检测性能。ShuffleNetV1网络通过混洗操作,使得网络可以尽情地使用分组卷积提高检测速度,而ShuffleNetV2网络则推倒了前者的大部分设计,从实际出发,在加速网络的同时进行了特征重用,从而达到了很好的检测效果。这些网络模型的提出都在一定程度上提升了模型的检测性能,但是都未充分考虑特征图之间的冗余性。Han等提出了一种轻量化网络GhostNet,利用廉价操作来提升特征图的冗余,在降低模型的计算量的同时,提高了网络的检测速度以及实时性。
[0004]YOLOv4作为单阶段目标检测算法中的经典算法,模型的检测速度相对较快,性能优异,可以很好的满足工业生产及应用的需求。然而,YOLOv4的网络结构较为复杂,模型参数量较大,导致该算法对设备的性能要求较高,无法满足移植到移动端进行检测的要求。
[0005]通过上述分析,现有技术存在的问题及缺陷为:
[0006]单阶段目标检测算法在行人检测任务中存在实时性较差以及检测精度不高等问题。

技术实现思路

[0007]针对现有技术存在的问题,本专利技术提供了一种改进YOLOv4网络的行人检测方法、系统、设备及介质。
[0008]本专利技术是这样实现的,一种改进YOLOv4网络的行人检测方法,所述改进YOLOv4网
络的行人检测方法包括:
[0009]构建预设的YOLOv4目标检测模型,包括输入端、Backbone基准网络、Neck中间层以及Head输出层;其中,所述Backbone基准网络采用预设的GhostNet网络,用于提取特征;所述Neck中间层由SPP模块和PANet网络组成,所述SPP模块通过融合不同大小的最大池化来获得鲁棒的特征表示,将所述PANet网络中的普通3
×
3卷积替换为深度可分离卷积,并加入CA注意力机制模块,用于定位目标;引入Focal Loss作为损失函数,训练所述YOLOv4目标检测模型;所述Head输出层用于输出目标检测结果。
[0010]进一步,所述预设的GhostNet网络结构的起始部分包括一个卷积核大小为3
×
3的卷积层;中间部分为由Ghost Bottleneck构成的多个卷积层;最后通过全连接层进行输出;
[0011]所述PANet网络包括FPN结构和PAN结构;其中,所述FPN结构用于自顶向下捕获强语义特征,依次对Backbone基准网络生成的13*13、26*26、52*52三个特征映射执行融合操作,先对比较小的特征映射层执行上采样操作,将其调整成相同大小,然后将两个同等大小的特征映射叠加起来,将13*13大小的特征映射调整为52*52大小;
[0012]所述PAN结构用于自底向上传达强定位特征,将52*52大小的特征映射重新调整为13*13大小;
[0013]所述Head输出层包含一个分类分支和一个回归分支。
[0014]所述SPP模块与单纯的使用k*k最大池化的方式相比,采用SPP模块的方式能够有效的增加主干特征的接受范围,显著的分离了最重要的上下文特征。所述FPN结构不仅提升了特征映射的大小,可以更好地解决检测中尺度问题,而且增加了网络的深度,提升了网络的鲁棒性。所述PAN结构可以在一定程度上提升模型的目标定位能力。FPN层自顶向下可以捕获强语义特征,而FPN则通过自底向上传达强定位特征,通过这两个组合模块,可以很好的完成目标定位功能。
[0015]所述Head输出层针对不同的检测算法输出层的分支个数不尽相同,通常包含一个分类分支和一个回归分支。YOLOv4利用CIOU_Loss来代替Smooth L1Loss函数,并利用DIOU_nms来代替传统的NMS操作,CIOU_Loss是在DIOU_Loss的基础上增加了一个影响因子,将预测框和真实框的长度比考虑进来。DIOU_nms考虑到了边界框中心点的位置信息,因而得到了更准确的检测结果,从而进一步提升算法的检测精度。
[0016]进一步,所述深度可分离卷积是由逐通道卷积和逐点卷积两个部分结合起来提取特征,输入的特征图大小为H
×
W
×
M,其中,H为宽,W为高,M为通道数,卷积核的尺寸为K
×
K
×
M,卷积核数量为N,则逐点卷积的计算量为:
[0017]H
×
W
×
M
×
N
[0018]逐通道卷积的计算量为:
[0019]H
×
W
×
K
×
K
×
M
[0020]因此,深度可分离卷积的计算总量为:
[0021]H
×
W
×
K
×
K
×
M+H
×
W
×
M
×
N。
[0022]进一步,所述CA注意力机制模块包括Coordinate信息嵌入和Coordinate Attention生成;
[0023]所述CA注意力机制模块通过所述Coordinate信息嵌入分解全局池化,转化为一对一维特征编码操作,公式为:
[0024][0025]式中,z
c
表示与第c通道相关联的输出,x
c<本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种改进YOLOv4网络的行人检测方法,其特征在于,所述改进YOLOv4网络的行人检测方法包括:构建预设的YOLOv4目标检测模型,包括输入端、Backbone基准网络、Neck中间层以及Head输出层;其中,所述Backbone基准网络采用预设的GhostNet网络,用于提取特征;所述Neck中间层由SPP模块和PANet网络组成,所述SPP模块通过融合不同大小的最大池化来获得鲁棒的特征表示,将所述PANet网络中的普通3
×
3卷积替换为深度可分离卷积,并加入CA注意力机制模块,用于定位目标;引入Focal Loss作为损失函数,训练所述YOLOv4目标检测模型;所述Head输出层用于输出目标检测结果。2.如权利要求1所述改进YOLOv4网络的行人检测方法,其特征在于,所述预设的GhostNet网络结构的起始部分包括一个卷积核大小为3
×
3的卷积层;中间部分为由Ghost Bottleneck构成的多个卷积层;最后通过全连接层进行输出;所述PANet网络包括FPN结构和PAN结构;其中,所述FPN结构用于自顶向下捕获强语义特征,依次对Backbone基准网络生成的13*13、26*26、52*52三个特征映射执行融合操作,先对比较小的特征映射层执行上采样操作,将其调整成相同大小,然后将两个同等大小的特征映射叠加起来,将13*13大小的特征映射调整为52*52大小;所述PAN结构用于自底向上传达强定位特征,将52*52大小的特征映射重新调整为13*13大小;所述Head输出层包含一个分类分支和一个回归分支。3.如权利要求1所述改进YOLOv4网络的行人检测方法,其特征在于,所述深度可分离卷积是由逐通道卷积和逐点卷积两个部分结合起来提取特征,输入的特征图大小为H
×
W
×
M,其中,H为宽,W为高,M为通道数,卷积核的尺寸为K
×
K
×
M,卷积核数量为N,则逐点卷积的计算量为:H
×
W
×
M
×
N逐通道卷积的计算量为:H
×
W
×
K
×
K
×
M因此,深度可分离卷积的计算总量为:H
×
W
×
K
×
K
×
M+H
×
W
×
M
×
N。4.如权利要求1所述改进YOLOv4网络的行人检测方法,其特征在于,所述CA注意力机制模块包括Coordinate信息嵌入和Coordinate Attention生成;所述CA注意力机制模块通过所述Coordinate信息嵌入分解全局池化,转化为一对一维特征编码操作,公式为:式中,z
c
表示与第c通道相关联的输出,x

【专利技术属性】
技术研发人员:杨贤昭赵帅通刘雄彪刘震
申请(专利权)人:武汉科技大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1