基于改进YOLOV5模型的工地安全帽佩戴检测方法技术

技术编号:36072734 阅读:49 留言:0更新日期:2022-12-24 10:43
本发明专利技术公开了一种基于改进YOLOV5模型的工地安全帽佩戴检测方法,基于单阶段原始的YOLOV5目标检测模型,通过优化网络结构降低最小感受野,利用池化金字塔及注意力机制等手段规范输入尺寸,模糊背景差异,增强小目标学习能力,本发明专利技术所提出的方法在基准网络基础上只增加了少量参数及计算开销,并显著提升了小目标检测效果,克服原始YOLOV5目标检测模型小目标场景检测性能较低的缺点,改进后的YOLOV5模型能够在施工场景下的安全帽检测任务中有着优异的检测表现,在同一场景下比原始YOLOV5网络检测到更多正样本,提高了施工场景下安全帽佩戴检测的可靠性,降低漏检、误检的情况发生。误检的情况发生。误检的情况发生。

【技术实现步骤摘要】
基于改进YOLOV5模型的工地安全帽佩戴检测方法


[0001]本专利技术属于建筑行业智能化处理
,尤其涉及基于改进YOLOV5模型的工地安全帽佩戴检测方法。

技术介绍

[0002]建筑业是高风险、监管薄弱、信息化程度较低的传统行业,在复杂的施工环境下,工人的不安全行为很容易导致安全事故,威胁施工人员生命安全。据统计,在工地安全事故中,头部周边损伤占大部分,减少该类事故受伤的有效措施在于正确使用安全防护设备。由于安全帽具有多种防护能力,如电绝缘性、耐穿刺、抗冲击性等优点,可以有效减少头部和颈部损伤。因此,运用智能技术实现安全帽佩戴的自动化检测,是保障施工人员生命财产的必要手段。
[0003]近年来,随着计算机视觉技术的不断发展,目标检测领域在工业生产中具有广泛应用。早期的安全帽佩戴检测方法主要有Hough、HOG等,通过对行人进行检测后,利用颜色、形状等特征对安全帽进行再识别。随着卷积神经网络的发展,目标检测算法也转向了基于深度神经网络的检测算法。目前基于深度神经网络的目标检测算法可以分为单阶段目标检测模型和双阶段目标检测模型两类。单阶段目标检测模型主要以SSD和YOLO为主;而双阶段目标检测模型主要有RCNN、FASTRCNN等。
[0004]现有原始的YOLOV5目标检测模型相比于之前旧版本权衡了速度与检测精度,有着计算开销小、精度高的优异性能,并且YOLOV5s模型尺寸更小,利于快速部署。但现有原始的YOLOV5目标检测模型设计时只是考虑了通用性,却难以满足小目标、密集场景等视觉任务。尤其在进行安全帽检测时,拍摄场景的远近和复杂的施工环境会产生大量的小目标,造成较多的漏检、误检行为。

技术实现思路

[0005]本专利技术的目的在于克服现有原始的YOLOV5目标检测模型针对小目标检测场景的不足,提供一种基于改进YOLOV5模型的工地安全帽佩戴检测方法,降低小目标检测时的漏检、误检情况,提高施工场景下小目标检测能力。
[0006]本专利技术的目的是通过以下技术方案来实现的:基于改进YOLOV5模型的工地安全帽佩戴检测方法,其特殊之处在于,包括:步骤1、收集并划分数据集:收集开源数据集SHWD、SHD及其他网络图片,制作所需数据集,将数据集划分为训练集、验证集和测试集。
[0007]步骤2、对原始的YOLOV5目标检测模型进行改进:通过在原始的YOLOV5目标检测模型基础上优化网路结构,得到改进后的YOLOV5模型;所述改进后的YOLOV5模型采用K

Means++聚类算法实时计算锚框,加速模型收敛;采用Swin Tranformer Block作为Backbone高层语义提取网络,增强模型上下文特征提取能力;
添加小目标检测层,降低网络最小感受野;特征融合部分融入SPPF特征融合金字塔,通过多层次的空间箱从不同的角度进行特征提取再聚合,提升算法对物体变形的鲁棒性;采用Bottleneck Transformer优化特种融合部分的卷积层,增强网络特征融合能力;采用Shuffle Attention作为注意力机制更新特征矩阵,增强小目标特征表达能力。
[0008]步骤3、利用改进后的YOLOV5模型进行训练:将所述步骤1数据集中的训练集送入改进后的YOLOV5模型进行训练,并保存训练过程中改进后的YOLOV5模型在验证集上检测准确率最高的权重参数,并将权重文件命名为best.pt。
[0009]步骤4、利用改进后的YOLOV5模型进行检测:加载步骤3所述权重文件best.pt至改进后的YOLOV5模型中,并将测试集图像输入改进后的YOLOV5模型,得到该模型在测试集上的检测结果,检测到的结果分为两部分,包含施工场景下佩戴的安全帽与未佩戴安全帽的头部。
[0010]进一步的,对于步骤1中的数据集为图片及文本文件格式的锚框坐标,数据集类别分为安全帽和头部两类。
[0011]进一步的,步骤2中,所述的添加小目标检测层,指的是原始的YOLOV5目标检测模型仅有三个尺度的预测输出,通过添加感受野更小的检测尺度使改进后的YOLOV5模型在四种尺度上预测检测目标的边界框,从而提升小目标检测效果。例如对于输入尺寸为640
×
640像素大小的输入图像,原始的YOLOV5目标检测模型的特征提取部分只从中提取出80
×
80、40
×
40、20
×
20三种大小的特征图;而改进后的YOLOV5模型的特征提取部分能够从中提取出160
×
160、80
×
80、40
×
40、20
×
20四种大小的特征图,在特征融合部分以更小的感受野对不同尺寸的特征图进行融合;在YOLOV5的检测头中,每个尺度都输出一个三维预测张量;预测张量中的编码信息包含:预测框的位置信息、待检测目标的置信度、预测框中包含的目标类别;预测框中包含的目标类别分为佩戴的安全帽及未佩戴安全帽的头部;在YOLOV5的检测部分中,对于尺度大小为N
×
N的特征图,YOLOV5模型产生的预测张量大小为N
×
N
×
[4*(1+4+2)],其中第一个4代表改进后的YOLOV5模型有四个预测头,对应四个尺度的张量,1代表置信度的预测,第二个4代表预测框位置信息,2代表目标类别为两个类。
[0012]进一步的,步骤2所述的Swin Transformer Block是基于滑动窗口机制新视觉网络,其通过移位窗口将自注意力的计算限制在非重叠的局部窗口内,同时考虑跨窗口连接,通过相邻窗口合并扩大窗口感受野,提高效率。利用移位窗口划分方法,Swin变换块被计算为:
ꢀꢀꢀꢀ
(1)
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(2)
ꢀꢀꢀꢀꢀꢀ
(3)
ꢀꢀꢀꢀꢀꢀꢀ
(4)其中代表块的W

MSA模块的输入特征,和、和分别表示块的
(S)W

MSA模块和MLP模块的输出特征;W

MSA和SW

MSA分别表示使用规则和移位窗口划分配置的基于窗口的多头部自注意;LN表示LayerNorm层。该计算过程如附图4所示。
[0013]进一步的,步骤2所述的SPPF用于解决输入图片大小不一造成的缺陷,其使用多层次的空间箱,把一个feature map从不同的角度进行特征提取再聚合,提升算法对物体变形的鲁棒性。
[0014]进一步的,步骤2所述的Bottleneck Transformer属于Hybrid network,其将CNN与Transformer结合起来处理对输入图像尺寸要求较高的视觉任务。
[0015]进一步的,步骤2所述的Shuffle Attention是多分支结构的置换注意力机制,其利用组卷积高效结合通道注意力与空间注意力。
[0016]进一步的,步骤3中,将训本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.基于改进YOLOV5模型的工地安全帽佩戴检测方法,其特征在于:步骤1、收集并划分数据集:收集开源数据集SHWD、SHD及其他网络图片,制作所需数据集,将数据集划分为训练集、验证集和测试集;步骤2、对YOLOV5目标检测模型进行改进:通过在原始的YOLOV5目标检测模型基础上优化网路结构,得到改进后的YOLOV5模型;所述改进后的YOLOV5模型采用K

Means++聚类算法实时计算锚框,加速模型收敛;采用Swin Tranformer Block作为Backbone高层语义提取网络,增强模型上下文特征提取能力;添加小目标检测层,降低网络最小感受野;特征融合部分融入SPPF特征融合金字塔,通过多层次的空间箱从不同的角度进行特征提取再聚合,提升算法对物体变形的鲁棒性;采用Bottleneck Transformer优化特征融合部分的卷积层,增强网络特征融合能力;采用Shuffle Attention作为注意力机制更新特征矩阵,增强小目标特征表达能力;步骤3、利用改进后的YOLOV5模型进行训练:将所述步骤1数据集中的训练集送入改进后的YOLOV5模型进行训练,并保存训练过程中改进后的YOLOV5模型在验证集上检测准确率最高的权重参数,并将权重文件命名为best.pt;步骤4、利用改进后的YOLOV5模型进行检测:加载步骤3所述权重文件best.pt至改进后的YOLOV5模型中,并将测试集图像输入改进后的YOLOV5模型,得到该模型在测试集上的检测结果,检测到的结果分为两部分,包含施工场景下佩戴的安全帽与未佩戴安全帽的头部。2.根据权利要求1所述的基于改进YOLOV5模型的工地安全帽佩戴检测方法,其特征在于,对于步骤1中的数据集为图片及文本文件格式的锚框坐标,数据集类别分为安全帽和头部两类。3.根据权利要求2所述的基于改进YOLOV5模型的工地安全帽佩戴检测方法,其特征在于:步骤2中,所述的添加小目标检测层,是在原始的YOLOV5目标检测模型的三个尺度输出的基础上添加降低感受野的检测尺度,使改进后的YOLOV5模型在四种尺度上预测检测目标的边界框;在改进后的YOLOV5模型的检测头中,每个尺度都输出一个三维预测张量;预测张量中的编码信息包含:预测框的位置信息、待检测目标的置信度、预测框中包含的目标类别;所述预测框中包含的目标类别分为佩戴的安全帽及未佩戴安全帽的头部;在改进后的YOLOV5模型的检测部分中,对于尺度大小为N
×
N的特征图,改进后的YOLOV5模型产生的预测张量大小为N
×
N
×
[4*(...

【专利技术属性】
技术研发人员:郑狄李晶姚涛闫连山蒲桂东
申请(专利权)人:西南交通大学烟台新一代信息技术研究院
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1