一种基于YOLOv5的口罩佩戴实时检测方法技术

技术编号:30704094 阅读:25 留言:0更新日期:2021-11-06 09:45
本发明专利技术公开了一种基于YOLOv5的口罩佩戴实时检测方法,属于机器学习领域。该方法包括:制作用于口罩佩戴检测的数据集,分析YOLOv5模型用于口罩检测的问题,针对问题对YOLOv5网络进行了优化,采用K

【技术实现步骤摘要】
一种基于YOLOv5的口罩佩戴实时检测方法


[0001]本专利技术涉及机器学习领域,尤其是一种基于YOLOv5的口罩佩戴实时检测方法。

技术介绍

[0002]自新冠肺炎疫情爆发后,在车站、商场等公共场所佩戴口罩成为预防疫情的有效手段。因此,需要在公共场所检测人员是否佩戴口罩,如果单纯的依靠人眼来进行观察,不仅需要消耗大量的人力,而且在人员密集处很容易出现漏检情况。因此,实现口罩佩戴的实时检测变得具有很大的现实意义。
[0003]近年来,传统的图像处理技术在目标检测应用上,速度慢、稳定性差且当环境变化时准确率会下降,随着深度学习和机器视觉的快速发展,基于深度学习的目标检测算法得到了广泛的应用。口罩佩戴的实时检测具有实时性强、目标物体小、容易被遮挡等难题,因此需要一种快速、针对被遮挡的小目标准确度高的目标检测算法。YOLOv5于2020年5月提出的一种单阶段的目标检测算法,具有很快的推理速度和小巧的网络结构,YOLOv5的模型结构主要分为四个部分,即Input输入端、Backbone基础网络、Neck网络和Prediction输出层。但对口罩这种容易被遮挡的小目标,容易出现漏检的现象。因此本专利技术在YOLOv5的基础上进行改进优化,提出了一种新型YOLOv5的口罩佩戴实时检测。

技术实现思路

[0004]针对上述的所有问题,本专利技术提供一种新型YOLOv5的口罩佩戴实时检测方法,来客服现有的检测方法在速度和准确度上的问题。
[0005]一种基于YOLOv5的口罩佩戴实时检测方法,其特征在于,具体按照如下步骤进行:
[0006]步骤1:制作用于口罩佩戴检测的数据集;
[0007]步骤2:搭建YOLOv5网络框架;
[0008]步骤3:将口罩佩戴检测的数据集用YOLOv5网络进行训练;
[0009]步骤4:将训练的新型YOLOv5模型用于口罩佩戴实时检测中。
[0010]优选的,步骤1具体包括:
[0011]步骤1.1:首先搜集两千多张正确佩戴口罩和未佩戴口罩的照片;
[0012]步骤1.2:在原数据集的基础上上利用旋转、裁剪等数据增强方法对数据集进行增强,将数据集扩展到5000张照片;
[0013]步骤1.3:用Labeling对5000张图片进行标注。
[0014]优选的,步骤2具体包括:
[0015]步骤2.1:采用CIOU_Loss作为Bounding box的损失函数,定义为:
[0016][0017]CIOU_Loss考虑到了覆盖面积、中心点距离和长宽比。其中α是权重系数,v表示检测框和真实框的长宽比的距离,b和b
gt
分别表示类别是佩戴口罩的预测框和未佩戴口罩的
预测框的中心点,ρ表示欧氏距离,c表示目标最小外接矩形的对角线距离。α和v的表达式为:
[0018][0019][0020]步骤2.2:新型YOLOv5的非极大值抑制方法采用DIOU_Loss,DIOU_Loss不仅仅回考虑IOU还会考虑两个中心点之间的距离,当两个框的中心点距离比较大时,会被认为是两个物体的框而不会因为遮挡被过滤掉。
[0021]优选的,步骤3具体包括:
[0022]步骤3.1:对步骤1所标注的数据集采用K

Means++算法对数据集的目标框的高宽进行聚类,以此来确定模型中的anchor参数的最优值。
[0023]步骤3.2:将标注的数据集按照9:1划分成训练集和测试集,将步骤3.1所计算出来的anchor参数输入到网络中。
[0024]优选的,步骤3.3:设置网络训练参数:迭代批量设置为128、衰减系数为0.0005、总迭代次数为500次、初始学习率为0.001,迭代400次学习率降低至0.0001、迭代450次学习率降至0.00001。
[0025]优选的,在步骤4中对步骤3训练好的新型YOLOv5模型进行推理测试。
[0026]对步骤4的检测进行评估和测试,具体公式如下所示。
[0027][0028][0029][0030][0031]其中TP表示模型预测正确佩戴口罩样本的数量,FP表示把未戴口罩识别成佩戴口罩的样本数量,FN表示将正确佩戴口罩识别成未佩戴口罩的样本数量。M表示类别数量,i∈(1,M)。准确率(Precision)、召回率(Recall)、平均精度值(mAP)。准确率和召回率越高,表示该模型对口罩检测效果越好,mAP是评估模型性能的一个重要指标,mAP值越高表示模型性能越好。
附图说明
[0032]图1为本专利技术的方法流程图
[0033]图2为本专利技术的YOLOv5网络结构图
[0034]图3为本专利技术的训练过程各参数变化
[0035]图4为本专利技术的部分图像检测结果。
具体实施方式
[0036]下面结合本专利技术实例中的附图,对本专利技术一种新型YOLOv5的口罩佩戴实时检测方法进行具体地描述。
[0037]一种新型YOLOv5的口罩佩戴实时检测方法,具体流程图如图1所示,包括以下具体步骤:
[0038]步骤1:利用网络爬虫搜集到两千张佩戴口罩和未派戴口罩的图片,针对图片数量较少的问题,利用旋转、裁剪、拼接等方法对图片进行扩充。
[0039]用Labeling对图片进行标注,用矩形框标注图片中人脸的位置,并标注人脸的类别为佩戴口罩和未佩戴口罩,标注成YOLO格式。
[0040]将标注好的文件按照9:1划分成训练集和测试集。
[0041]完成好以上操作,正确制作用于口罩佩戴检测的数据集。
[0042]步骤2:对YOLOv5模型进行分析;
[0043]YOLOv5于2020年5月份提出的一种单阶段目标检测算法,该算法是在YOLOv4的基础上在输入端、Backbone基础网络、Neck网络和输出层进行了改进,使其有着更快的推理速度和更小巧的网络结构。
[0044]由图2可以看出来,YOLOv5的模型结构主要分为四个部分,即Input输入端、Backbone基础网络、Neck网络和Prediction输出层。
[0045]YOLOv5的输入端包括Mosaic数据增强和自适应图片缩放。YOLOv5输入端的Mosaic数据增强算法是对CutMix数据增强算法的改进,由两张图片的拼接改进成四张图片的拼接,并且拼接方式也改进成随机的缩放、排布和裁剪。在目标检测过程中为了避免因为图片的长宽比不同,从而导致图片在放缩的过程中没有用的信息太多,这些过多的信息会导致模型的推理速度变慢。YOLOv5对此进行修改,采用自适应图片缩放,在图像缩放的过程中尽可能少的添加黑边,会提高模型的推理速度。
[0046]Backbone基础网络包含Focus结构和CSP结构。其中Focus模块在YOLOv5中是图片进入backbone前,对图片进行切片操作。以yolov5s为例,原始的640*640*3的图像输入Focus结构,采用切片操作,先变成本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于YOLOv5的口罩佩戴实时检测方法,其特征在于,具体按照如下步骤进行:步骤1:制作用于口罩佩戴检测的数据集;步骤2:搭建YOLOv5网络框架;步骤3:将口罩佩戴检测的数据集用YOLOv5网络进行训练;步骤4:将训练的YOLOv5模型用于口罩佩戴实时检测中。2.根据权利要求1所述的一种基于YOLOv5的口罩佩戴实时检测方法,其特征在于,步骤1中制作数据集时,具体包括如下步骤:步骤1.1:首先搜集两千多张正确佩戴口罩和未佩戴口罩的照片;步骤1.2:在原数据集的基础上利用旋转、裁剪的数据增强方法对数据集进行增强,将数据集扩展到5000张照片;步骤1.3:用Labeling对5000张图片进行标注。3.根据权利要求1所述的一种基于YOLOv5的口罩佩戴实时检测方法,其特征在于,步骤2具体包括:步骤2.1:采用CIOU_Loss作为Bounding box的损失函数,定义为:CIOU_Loss考虑到了覆盖面积、中心点距离和长宽比;其中α是权重系数,v表示检测框和真实框的长宽比的距离,b和b
gt
分别表示类别是佩戴口罩的预测框和未佩戴口罩的预测框的中心点,ρ表示欧氏距离,C表示目标最小外接矩形的对角线距离,IOU表示两个框的交集面积比上他们的并集面积,α和v的表达式为:集面积比上他们的并集面积,α和v的表达式为:步骤2.2:新型YOLOv5的非极大值抑制方法采用DIOU_Loss,DIOU_Loss不仅仅会考虑IoU还...

【专利技术属性】
技术研发人员:贾慧杰肖中俊
申请(专利权)人:齐鲁工业大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1