一种基于改进YOLOV5的安全服检测方法和系统技术方案

技术编号:30526109 阅读:110 留言:0更新日期:2021-10-27 23:11
本发明专利技术公开一种基于改进YOLO V5的安全服检测方法和系统,属于目标检测领域。包括:采用安全服穿着状态训练集训练改进YOLO V5,训练样本为包含工作人员图片帧,标签为安全服穿着状态,得到训练好的检测模型;将工业监控视频的每一帧输入至训练好的检测模型,得到安全服检测结果。本发明专利技术使用不同的神经网络结构替换原有YOLO V5算法的Backbone模块,采用EfficientNet作为Backbone,通过复合模型扩张系数对网络结构的宽度、深度与输入图像分辨率统一放缩,获得优于YOLO V5人工调整参数效果。采用ResNet50作为Backbone,由于加入残差块,让网络提取到特征信息完整保留到下一层,在前向传播过程中有效消除网络层之间梯度弥散。采用ShuffleNet或MobileNet作为Backbone,降低网络结构复杂度与模型体积,得到轻量化模型。得到轻量化模型。得到轻量化模型。

【技术实现步骤摘要】
一种基于改进YOLO V5的安全服检测方法和系统


[0001]本专利技术属于目标检测领域,更具体地,涉及一种基于改进YOLO V5的安全服检测方法和系统。

技术介绍

[0002]在工业生产中,安全问题至关重要,安全生产的意识深入人心。安全服是工作人员在生产作业区域必须穿着的防护服装,规范穿着安全服可以有效保护工作人员的躯体,减轻酸碱等危险化学物品对皮肤的侵害。基于工业监控视频在线实时对工作人员穿着安全服状态的检测方法是工业场景中工作人员生命安全的重要保障,对于规范工业管理和安全生产同样重要。目前,大多数工业管理单位多采用人工监督的方法,对于进出生产作业区域的工作人员是否穿着安全服进行肉眼检查,这种原始的检查与监督方式效率低下。
[0003]当前逐渐出现一些使用目标检测算法的工作人员安全服穿着在线检测系统,但是所针对的安全服目标大多数来源于网络爬取或日常生活场景中的拍摄采集的反光衣背心,针对真实工业场景中的安全服目标非常稀少。对于近景中较为清晰的大、中目标安全服可以做到检测与识别,但是对于真实工业场景复杂背景中受到光照变化、阴影遮挡的安全服识别难度较大。因此,提高对工业监控视频中对于安全服目标的检测准确率十分重要。
[0004]当前的检测方法主要使用计算机视觉技术,基于视觉方法面向摄像头记录工作现场的图像或视频。具体有使用实例分割将人体检测分为头部、身体躯干上半部分与下半部分,并在HOG提取三部分的特征后使用支持向量机对工作人员是否穿着安全服的情况进行分类。近些年,随着图形处理器硬件资源增长与深度学习相关研究的逐渐深入,基于深度学习的目标检测算法在计算机视觉任务中被广泛使用。例如,一种基于改进的YOLOv3算法用作安全服检测,通过扩张原有YOLOv3图像输入尺寸完成多尺度侦测,在不同分辨率测试下准确度更高。或是针对不同服装外观形状与材料构成差异导致的特征多样性问题,使用YOLOv4对人体上半身、下半身衣物以及携带的物品进行检测,并借助迁移学习的方法对以上目标详细分类,提出了YOLOv4双阶段检测算法。
[0005]目前对于安全服检测的问题已经有了很多的研究方案,但仍然存在一些问题,主要体现为以下几点:
[0006]1.现有解决方案所采用的目标检测技术手段较为落后。当前研究人员完成相关目标检测任务所采用的算法多为对YOLOv3、YOLOv4算法模型的改进,不久前,对于最新出现的YOLOv5算法的具体使用相关研究还比较稀少;
[0007]2.现有研究方案所检测的安全服对象大多数来源于网络爬取或日常生活场景中的拍摄采集的反光衣背心,缺乏面向真实工业场景中的安全服目标检测方法;
[0008]3.现有研究方案中的算法模型对于真实工业场景中的安全服目标检测效果较差,真实工业场景背景复杂,待检测安全服目标对象容易受到光照变化、多遮挡、监控画面损失、运动模糊等多种复杂问题的干扰,对于算法模型的鲁棒性提出了较高要求。

技术实现思路

[0009]针对现有技术的缺陷和改进需求,本专利技术提供了一种基于改进YOLO V5的安全服检测方法和系统,其目的在于改进后的算法模型在保证实时性检测速度要求的前提下,对于此类安全服目标在检测准确率与鲁棒性方面均有较大性能的提升。
[0010]为实现上述目的,按照本专利技术的第一方面,提供了一种基于改进YOLO V5的安全服检测方法,该方法包括:
[0011]采用安全服穿着状态训练集训练改进YOLO V5,所述训练集中的训练样本为包含工作人员的图片帧,标签为工作人员安全服穿着状态,得到训练好的检测模型;将工业监控视频的每一帧输入至训练好的检测模型,得到安全服检测结果;
[0012]所述改进YOLO V5包括串联的Input、改进Backbone、Neck和Prediction,所述改进Backbone为EfficientNet、ResNet50、ShuffleNet或者MobileNet。
[0013]优选地,采用以下方式构建安全服穿着状态训练集:
[0014]从真实工业场景监控视频中提取包含工作人员的图片帧;
[0015]根据工作人员安全服穿着状态,对每个图片帧中工作人员进行标注,标注内容包括:是否穿着安全服和穿着何种颜色安全服,得到安全服穿着状态检测数据集和与安全服穿着颜色检测数据集。
[0016]优选地,提取图片帧的方式如下:将读取到的监控视频流第一帧图像设为背景帧,将静止不动对象设置为背景,使用背景建模算法提取运动目标对象;并计算后续帧与当前背景帧之间的差值,如果差值大于阈值T,则更新背景帧,否则继续读取直到视频结束为止;如果差值小于阈值T,则计算运动目标对象的移动轮廓面积,如果移动轮廓面积大于阈值T

,保存该图像帧,否则继续读取下一帧。
[0017]有益效果:本专利技术提出一种关键帧提取算法,将对监控视频感兴趣片段中的行人检测转换为对视频画面中运动目标对象的检测,对监控视频数据进行自动挑选,极大地提高了数据预处理效率。
[0018]优选地,使用LabelImg软件对安全服穿着状态训练集中工作人员穿着安全服的情况进行标注,正确穿着安全服标注为“SafetyCloth”,没有穿着安全服标注为“No_SafetyCloth”,穿着绿色安全服标注为“Green”,穿着白色安全服标注为“White”,穿着橙色安全服标注为“Orange”,对于工作人员正面面对摄像头,穿着安全服但上衣未系扣或拉链的情况标注为安全服穿着不规范“SC_Unzip”。
[0019]优选地,在Input部分采用Random Erase对图片帧进行随机遮挡:在目标对象区域生成的随机遮挡块,对图像中的目标对象产生不同程度的遮挡,但没有完全遮挡。
[0020]有益效果:由于安全服目标区域较大,容易受到工业环境中多种情况的遮挡。本专利技术通过Random Erase数据增强方式对图像的随机遮挡来模拟工业环境中的多遮挡,在训练过程中选取随机擦除来对安全服目标检测数据集中的正样本进行数据扩充,提高算法模型的鲁棒性。
[0021]优选地,在Input部分采用GridMask数据增强方式对图片帧进行随机遮挡:生成与原图像相同分辨率的Mask,经过相乘运算得到处理后的图像。
[0022]有益效果:由于安全服目标区域较大,容易受到工业环境中多种情况的遮挡。本专利技术通过GridMask对图像的随机遮挡来模拟工业环境中的多遮挡,可以通过x、y、w、h和I五个
参数控制被遮挡区域面积与密度。通过将原图像区域均匀遮挡,实现图像区域部分信息丢弃,这种方法使得模型更多的学习到目标对象的不同组成部分,从而提高训练效果。
[0023]为实现上述目的,按照本专利技术的第二方面,提供了一种基于改进YOLO V5的安全服检测系统,包括:计算机可读存储介质和处理器;
[0024]所述计算机可读存储介质用于存储可执行指令;
[0025]所述处理器用于读取所述计算机可读存储介质中存储的可执行指令,执行第一方面所述的基于改进Y本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于改进YOLO V5的安全服检测方法,其特征在于,该方法包括:采用安全服穿着状态训练集训练改进YOLO V5,所述训练集中的训练样本为包含工作人员的图片帧,标签为工作人员安全服穿着状态,得到训练好的检测模型;将工业监控视频的每一帧输入至训练好的检测模型,得到安全服检测结果;所述改进YOLO V5包括串联的Input、改进Backbone、Neck和Prediction,所述改进Backbone为EfficientNet、ResNet50、ShuffleNet或者MobileNet。2.如权利要求1所述的方法,其特征在于,采用以下方式构建安全服穿着状态训练集:从真实工业场景监控视频中提取包含工作人员的图片帧;根据工作人员安全服穿着状态,对每个图片帧中工作人员进行标注,标注内容包括:是否穿着安全服和穿着何种颜色安全服,得到安全服穿着状态检测数据集和与安全服穿着颜色检测数据集。3.如权利要求2所述的方法,其特征在于,提取图片帧的方式如下:将读取到的监控视频流第一帧图像设为背景帧,将静止不动对象设置为背景,使用背景建模算法提取运动目标对象;并计算后续帧与当前背景帧之间的差值,如果差值大于阈值T,则更新背景帧,否则继续读取直到视频结束为止;如果差值小于阈值T,则计算运动目标对象的移动轮廓面积,如果移动轮廓面积大于阈值T

【专利技术属性】
技术研发人员:于俊清张培基陈刚
申请(专利权)人:华中科技大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1