一种基于改进YOLOV5模型的安全帽佩戴检测方法技术

技术编号:36168356 阅读:18 留言:0更新日期:2022-12-31 20:18
本发明专利技术公开了一种基于改进YOLOV5模型的安全帽佩戴检测方法,方法包括:从安全帽佩戴图像数据集中随机选取图像进行图像数据增强,得到数据增强后的图像,输入至改进YOLOV5模型中进行训练,得到训练后的改进YOLOV5模型;改进YOLOV5模型包括:在特征提取部分嵌入倒置残差模块与倒置残差注意力模块进行图像特征提取;在特征融合部分设计多尺度特征融合模块进行特征融合,并生成四个不同感受野的检测头;优化预测框回归损失函数;最后将待检测图像输入至训练后的改进YOLOV5模型,得到相关人员是否佩戴安全帽的检测结果;本发明专利技术有效改善了施工现场视频监控图像中小目标漏检、误检的问题,提高了安全帽佩戴检测精度。提高了安全帽佩戴检测精度。提高了安全帽佩戴检测精度。

【技术实现步骤摘要】
一种基于改进YOLOV5模型的安全帽佩戴检测方法


[0001]本专利技术涉及图像处理
,特别涉及一种基于改进YOLOV5模型的安全帽佩戴检测方法。

技术介绍

[0002]当前,我国建筑行业仍处于一个持续发展的阶段,每年建筑从业人员都在增长,在施工现场的安全管理中,安全帽作为一种能够有效预防头部损伤事故发生的防护用品,能够有效吸收高空坠落物对施工人员头部的冲击力,避免或减少高空坠物对头部的伤害,是安全生产法规定的生产施工活动中必须佩戴的个人防护用品。确保安全帽在施工场景下的正确佩戴,能够有效地减少生产事故中人员的伤亡率,对保障安全生产具有重要意义。
[0003]目前,在建筑工地中大多仍然采用人工监督的方法判断工作人员是否佩戴安全帽,这种方式容易造成人力物力的浪费,且存在较大的工作范围与人工作业易产生疲劳等局限性使得监督效果较差等问题。
[0004]近年来,随着目标检测技术的不断发展,在安全帽检测研究中取得了一定的成果;相较于传统耗时耗力的人工巡检,基于机器视觉的方法具有自动化程度高、易扩展等特点,因此成为当下的一种迫切需求。
[0005]但是,现有的基于传统机器学习的检测方法主要通过安全帽的形状和颜色特征进行识别,例如使用皮肤颜色检测方法对人脸进行定位,通过使用支持向量机的方法实现安全帽的检测;虽然传统机器学习的安全帽检测算法检测速度较快,但需要为特定的检测对象进行特征和训练分类器的设计,同时由于其泛化能力较差、特征较为单一等特点,无法在复杂的施工环境下对目标进行有效检测,容易出现小目标漏检、误检的问题,复杂环境下安全帽佩戴检测精度较低。
[0006]因此,如何避免在复杂环境下对安全帽佩戴进行检测时出现小目标漏检、误检的问题,提高安全帽佩戴检测的精度,是本领域技术人员亟需解决的问题。

技术实现思路

[0007]有鉴于此,本专利技术提出了至少解决上述部分技术问题的一种基于改进YOLOV5模型的安全帽佩戴检测方法,该方法在YOLOV5模型的特征提取部分嵌入倒置残差模块与倒置残差注意力模块,便于获得丰富的小目标空间信息和深层语义信息,提升小目标的检测精度;在特征融合部分设计多尺度特征融合模块,提升模型对小尺寸目标的识别能力,减少小目标的漏检,该方法可以在复杂的环境下对安全帽佩戴进行有效检测,避免了出现小目标漏检、误检,提升了复杂环境下安全帽佩戴检测的精度。
[0008]为实现上述目的,本专利技术采取的技术方案为:本专利技术实施例提供一种基于改进YOLOV5模型的安全帽佩戴检测方法,包括以下步骤:S1、获取安全帽佩戴图像数据集,从所述安全帽佩戴图像数据集中随机选取N张图
像进行图像数据增强,得到数据增强后的图像;S2、将所述数据增强后的图像输入至改进YOLOV5模型中进行训练,得到训练后的改进YOLOV5模型;所述改进YOLOV5模型包括:在特征提取部分嵌入倒置残差模块与倒置残差注意力模块进行图像特征提取;在特征融合部分设计多尺度特征融合模块进行特征融合,并生成四个不同感受野的检测头;优化预测框回归损失函数;S3、将待检测图像输入至所述训练后的改进YOLOV5模型,得到相关人员是否佩戴安全帽的检测结果。
[0009]进一步地,所述步骤S1中,从所述安全帽佩戴图像数据集中随机选取N张图像进行图像数据增强,所述图像数据增强包括:对图像进行翻转、缩放和色域变换;将翻转、缩放和色域变换后的图像按照预设模板随机裁剪后进行拼接。
[0010]进一步地,所述对图像进行缩放具体为:在所述安全帽佩戴图像数据集中随机选择N张图像,将图像的宽和高作为边界值,对图像进行t
x
和t
y
缩放倍率的缩放;t
x
=f
r
(t
w
,t
w
+Δt
w
)t
y
=f
r
(t
h
,t
h
+Δt
h
)其中,t
w
和t
h
分别为宽和高缩放倍率的最小值,Δt
w
和Δt
h
分别为宽和高缩放倍率随机区间的长度,f
r
表示随机值函数。
[0011]进一步地,将缩放的图像按照预设模板随机裁剪后进行拼接具体为:确定高为h、宽为w的图像模板作为输出图像尺寸,同时在宽高方向随机生成四条分割线进行剪裁,然后将九张裁剪好的图像进行拼接,并裁剪掉溢出的边框部分;将内部重叠部分进行二次裁剪,经过裁剪后,得到拼接完成的图像;将该图像作为YOLOV5卷积神经网络的输入层数据。
[0012]进一步地,所述步骤S2中,所述在特征提取部分嵌入倒置残差模块与倒置残差注意力模块进行图像特征提取;具体包括以下步骤:a、将所述数据增强后的图像输入特征提取模块,输入的图像通过第一层Focus卷积,具体每一张图片中每隔一个像素取一个值,与下采样相类似,通过这种方式分割成四张图片,四张图片相似但没有信息丢失,通过这种操作将信息集中到了通道空间,将输入通道扩充了4倍,即拼接图片的通道为12通道,然后将图片再经过卷积操作,最终得到特征图通过Focus卷积和3
×
3的卷积层后得到特征图Feature_C0;b、将所述特征图Feature_C0输入至第一倒置残差模块,采用通道扩张的方式放大浅层的特征,通过对输入特征的通道扩张,利用线性变换实现高维到低维的特征映射,获取丰富的浅层信息,利用卷积进行特征提取,通过残差连接的方式进行特征重复学习,输出特征图Feature_C1;c、将所述特征图Feature_C1经过一层卷积和第二倒置残差模块后得到特征图Feature_C2,再经过一层卷积输入到第一倒置残差注意力模块中,得到特征图Feature_C3;将所述特征图Feature_C3经过卷积核大小为3
×
3的卷积并经过空间金字塔池化后,进入第二倒置残差注意力模块中,得到特征图Feature_C4,作为多尺度特征融合模块的输入。
[0013]进一步地,所述步骤S2中,所述在特征融合部分设计多尺度特征融合模块进行特征融合,并生成四个不同感受野的检测头,具体包括以下步骤:
1)、将所述特征图Feature_C4通过卷积核大小为3
×
3、通道数为512的卷积并经过上采样操作获得特征图Feature_Up1;2)、将所述特征图Feature_Up1与特征提取模块的所述特征图Feature_C3特征进行融合,再经过C3模块,得到融合后的特征图Feature_Fuse1,将融合后的所述特征图Feature_Fuse1通过卷积核大小为3
×
3、通道数为256的卷积并经过上采样操作获得特征图Feature_Up2;3)、将所述特征图Feature_Up2与所述特征图Feature_C2融合后得到特征图Feature_Fuse2,重复上述操作,通过卷积并经过上采样操作获得特征图Feature_Up3;4)、将所述本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于改进YOLOV5模型的安全帽佩戴检测方法,其特征在于,包括以下步骤:S1、获取安全帽佩戴图像数据集,从所述安全帽佩戴图像数据集中随机选取N张图像进行图像数据增强,得到数据增强后的图像;S2、将所述数据增强后的图像输入至改进YOLOV5模型中进行训练,得到训练后的改进YOLOV5模型;所述改进YOLOV5模型包括:在特征提取部分嵌入倒置残差模块与倒置残差注意力模块进行图像特征提取;在特征融合部分设计多尺度特征融合模块进行特征融合,并生成四个不同感受野的检测头;优化预测框回归损失函数;S3、将待检测图像输入至所述训练后的改进YOLOV5模型,得到相关人员是否佩戴安全帽的检测结果。2.根据权利要求1所述的一种基于改进YOLOV5模型的安全帽佩戴检测方法,其特征在于,所述步骤S1中,从所述安全帽佩戴图像数据集中随机选取N张图像进行图像数据增强,所述图像数据增强包括:对图像进行翻转、缩放和色域变换;将翻转、缩放和色域变换后的图像按照预设模板随机裁剪后进行拼接。3.根据权利要求2所述的基于改进YOLOV5模型的安全帽佩戴检测方法,其特征在于,所述对图像进行缩放具体为:在所述安全帽佩戴图像数据集中随机选择N张图像,将图像的宽和高作为边界值,对图像进行t
x
和t
y
缩放倍率的缩放;t
x
=f
r
(t
w
,t
w
+Δt
w
)t
y
=f
r
(t
h
,t
h
+Δt
h
)其中,t
w
和t
h
分别为宽和高缩放倍率的最小值,Δt
w
和Δt
h
分别为宽和高缩放倍率随机区间的长度,f
r
表示随机值函数。4.根据权利要求1所述的一种基于改进YOLOV5模型的安全帽佩戴检测方法,其特征在于,所述步骤S2中,所述在特征提取部分嵌入倒置残差模块与倒置残差注意力模块进行图像特征提取;具体包括以下步骤:a、将所述数据增强后的图像,通过Focus卷积和3
×
3的卷积层后得到特征图Feature_C0;b、将所述特征图Feature_C0输入至第一倒置残差模块,采用通道扩张的方式放大浅层的特征,利用卷积进行特征提取,通过残差连接的方式进行特征重复学习,输出特征图Feature_C1;c、将所述特征图Feature_C1经过一层卷积和第二倒置残差模块后得到特征图Feature_C2,再经过一层卷积输入到第一倒置残差注意力模块中,得到特征图Feature_C3,将所述特征图Feature_C3经过卷积核大小为3
×
3的卷积并经过空间金字塔池化后,进入第二倒置残差注意力模块中,得到特征图Feature_C4,作为多尺度特征融合模块的输入。5.根据权利要求4所述的一种基于改进YOLOV5模型的安全帽佩戴检测方法,其特征在于,所述步骤S2中,所述在特征融合部分设计多尺度特征融合模块...

【专利技术属性】
技术研发人员:张艳梁化民刘业辉孙晶雪
申请(专利权)人:天津城建大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1