当前位置: 首页 > 专利查询>淮阴工学院专利>正文

一种基于改进YOLOv5的化工厂安全帽佩戴检测方法技术

技术编号:37975413 阅读:7 留言:0更新日期:2023-06-30 09:50
本发明专利技术公开了一种基于改进YOLOv5的化工厂安全帽佩戴检测方法,预先获取待检测图像和训练图像,将图像中待检测区域标注出来,得到安全帽检测数据集,通过数据清洗,得到训练集和测试集;构建基于改进YOLOv5的安全帽佩戴检测模型,包括输入端、SwinTransformer模块、Neck模块和输出端;并在YOLOv5模型中加入注意力机制ECA模块及更改损失函数设置为Alpha

【技术实现步骤摘要】
一种基于改进YOLOv5的化工厂安全帽佩戴检测方法


[0001]本专利技术属于计算机视觉的目标检测
,具体涉及一种基于改进YOLOv5的化工厂安全帽佩戴检测方法。

技术介绍

[0002]高空作业、建筑工地、井下、隧道、涵洞等施工环境的危险性较大,如果发生事故,施工人员的生命安全无法得到保障。
[0003]研究表明,正确合理的使用安全帽是最便宜、最方便,也是最有效保护工人生命安全的个人便携防护用具,曾经救过无数工人的命。为了避免不戴安全帽导致的安全事故发生,在提高化工厂工人安全意识的同时,更要加强对安全帽佩戴的监督与管理。
[0004]随着深度学习技术的发展,很多学者都进行过安全帽佩戴识别的相关研究。由于真实检测任务中施工人员密集,检测目标小;工作环境复杂,受天气、光照等影响大;现场存在遮挡等干扰因素多,这些算法只能实现理想状态下简单识别,对化工厂现场的复杂环境的泛化能力不佳,对小目标的检测性能较差。为弥补安全防护用具检测模型性能的不足,需要根据化工厂现场的复杂特点优化安全防护用具检测算法,泛化其检测能力,提高小目标检测精度;为填补安全防护用具检测系统的空缺,需要搭建一套安全防护用具佩戴实时检测系统,应用到化工厂现场的监督管理中,为工人的生命安全提供保障。因此本专利技术对YOLOv5模型进行改进优化,在保证检测速度的同时提升安全帽佩戴的检测精度。
[0005]随着计算机性能的提升与相关图像处理算法的改进,许多学者提出了一系列基于计算机视觉的安全帽佩戴检测方法,大致可分为以下几类:
[0006](1)基于简单特征的安全帽检测。利用安全帽的形状、颜色等特征判断是否佩戴安全帽。基于施工人员肤色特征的安全帽佩戴检测算法能够较准确地定位施工人员,但由于实际工地环境的光线条件较复杂变化较多,此方法难以适应实际的工地光线情况。
[0007](2)基于人工设计特征的安全帽佩戴检测。一般的目标检测利用HOG+SVM的检测方法,但存在对人体姿态变化较为敏感的问题,为解决该问题,提出了鲁棒性较高的多尺度可变形部件模型DPM算法,将物体形态拆解为多个组件分别表征,再融合进行分类。
[0008](3)基于深度学习的安全帽佩戴检测。有学者提出了经典卷积神经网络CNN。该网络使用了较多的卷积层和更先进合理的模型参数,明显提高了图像分类的精确度。再通过分类器分类来完成目标检测任务。在2019年改进YOLOv3目标检测方法,使用图像金字塔结构来获取多尺度的特征图,进行位置和类别的预测,从而提高安全帽的识别精度;在2021年使用轻量级网络Mobile Net替换SSD中的特征提取网络VGG,来提高安全帽检测的速度。卷积神经网络被广泛的应用到安全帽检测任务中。
[0009]现有技术实验场景少,目前大多数学者实验环境较单一,没有实际结合更多的工地场景以及光照环境,使得检测系统泛化能力不够,不能适应多变的化工厂现场环境。目前化工厂流动人员安全帽检测系统基本都使用现场监控视频作为检测系统的输入,因此会导致被检测目标较小,但目前大多数检测算法对于小目标的检测效果较差,容易发生误检、漏
检等情况。因此需要研究能力更强的目标检测方法提高检测系统的泛化能力,解决小目标检测性能差的问题,对违规未佩戴安全防护用具人员进行实时检测并记录。

技术实现思路

[0010]专利技术目的:本专利技术公开了一种基于改进YOLOv5的化工厂安全帽佩戴检测方法,可以很好的对化工厂人员安全帽佩戴情况进行检测,有效地增强小目标检测的精确度,提高了化工厂安全帽佩戴检测的准确性。
[0011]技术方案:本专利技术提出一种基于改进YOLOv5的化工厂安全帽佩戴检测方法,包括以下步骤:
[0012](1)预先获取待检测图像和训练图像,将图像中待检测区域标注出来,得到安全帽检测数据集,通过数据清洗,得到训练集和测试集;
[0013](2)构建基于改进YOLOv5的安全帽佩戴检测模型,包括输入端、Swin Transformer模块、Neck模块和输出端;并在YOLOv5模型中加入注意力机制ECA模块及更改损失函数设置为Alpha

IoU;
[0014](3)将训练数据集和测试数据集输入到基于改进YOLOv5的安全帽佩戴检测模型中,进行训练,得到优化后的模型;
[0015](4)将待检测的图像输入优化后的模型,在detect中进行检测得到安全帽佩戴的检测结果。
[0016]进一步地,所述步骤(1)实现过程如下:
[0017]使用labelGo对图像进行标注,标注后的文件以“.xml”为后缀的标签文件,之后再转成“.txt”后缀的格式,得到数据集。
[0018]进一步地,步骤(2)所述输入端对输入的安全放防护用具小目标佩戴图片进行随机缩放,剪裁和排布,然后通过自适应锚框计算,初始设定长宽的锚宽,输出预测框,与真实框ground truth进行对比,在方向更新,迭代网络参数;然后再对原始的安全放防护用具图片自适应的添加最少的黑边,计算缩放比例,计算缩放后的尺寸,计算黑边填充数值,得到增强的图像。
[0019]进一步地,所述Swin Transformer模块的结构如下:
[0020]输入原始的图像之后是一个Patch Partition,再之后是一个Linear Embedding层,图像经过这两个层就是通过一个Patch Merging层,Patch Merging通过nn.Unfold函数实现降采样,经过nn.Unfold之后会得到个特征向量;stage的Feature Map的通道数为3,第一个stage的输入是RGB图像,stage1部分,先通过一个Linear Embedding将输划分后的patch特征维度变成C,然后送入Swin Transformer Block;Swin Transformer模块构建了4个stage,每个stage中都是类似的重复单元;stage2

stage4操作相同,先通过一个Patch Merging,将输入按照2x2的相邻Patches合并,patch块的数量变成特征维度为4C,与stage1一样使用Linear Embedding将4C压缩成2C,然后送入Swin Transformer Block;
[0021]Swin Transformer模块中核心的部分是4个Stage中的Swin Transformer Block,Swin Transformer Block由窗口多头自注意层W

MSA和移位窗口多头自注意层SW

MSA组
成;将压缩后的特征图输入到该stage的特征z
l
‑1先经过LN进行归一化,再经过W

MSA进行特征的学习,接着的是一个残差操作得到接着是一个LN,一个MLP以及一个残差,得到这一层的输出特征z
l
;然后继续进行LN归一化,在经过SW

MSA进行特征学习,本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于改进YOLOv5的化工厂安全帽佩戴检测方法,其特征在于,包括以下步骤:(1)预先获取待检测图像和训练图像,将图像中待检测区域标注出来,得到安全帽检测数据集,通过数据清洗,得到训练集和测试集;(2)构建基于改进YOLOv5的安全帽佩戴检测模型,包括输入端、Swin Transformer模块、Neck模块和输出端;并在YOLOv5模型中加入注意力机制ECA模块及更改损失函数设置为Alpha

IoU;(3)将训练数据集和测试数据集输入到基于改进YOLOv5的安全帽佩戴检测模型中,进行训练,得到优化后的模型;(4)将待检测的图像输入优化后的模型,在detect中进行检测得到安全帽佩戴的检测结果。2.根据权利要求1所述的一种基于改进YOLOv5的化工厂安全帽佩戴检测方法,其特征在于,所述步骤(1)实现过程如下:使用labelGo对图像进行标注,标注后的文件以“.xml”为后缀的标签文件,之后再转成“.txt”后缀的格式,得到数据集。3.根据权利要求1所述的一种基于改进YOLOv5的化工厂安全帽佩戴检测方法,其特征在于,步骤(2)所述输入端对输入的安全放防护用具小目标佩戴图片进行随机缩放,剪裁和排布,然后通过自适应锚框计算,初始设定长宽的锚宽,输出预测框,与真实框ground truth进行对比,在方向更新,迭代网络参数;然后再对原始的安全放防护用具图片自适应的添加最少的黑边,计算缩放比例,计算缩放后的尺寸,计算黑边填充数值,得到增强的图像。4.根据权利要求1所述的一种基于改进YOLOv5的化工厂安全帽佩戴检测方法,其特征在于,所述Swin Transformer模块的结构如下:输入原始的图像之后是一个Patch Partition,再之后是一个Linear Embedding层,图像经过这两个层就是通过一个Patch Merging层,Patch Merging通过nn.Unfold函数实现降采样,经过nn.Unfold之后会得到个特征向量;stage的Feature Map的通道数为3,第一个stage的输入是RGB图像,stage1部分,先通过一个Linear Embedding将输划分后的patch特征维度变成C,然后送入Swin Transformer Block;Swin Transformer模块构建了4个stage,每个stage中都是类似的重复单元;stage2

stage4操作相同,先通过一个Patch Merging,将输入按照2x2的相邻Patches合并,patch块的数量变成特征维度为4C,与stage1一样使用Linear Embedding将4C压缩成2C,然后送入Swin Transformer Block;Swin Transformer模块中核心的部分是4个Stage中的Swin Transformer Bloc...

【专利技术属性】
技术研发人员:王梓轩姜明新曹宇陆易甘峰瑞
申请(专利权)人:淮阴工学院
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1