一种基于YOLO的行吊安全检测方法及系统技术方案

技术编号:30158333 阅读:33 留言:0更新日期:2021-09-25 15:10
本发明专利技术公开了一种基于YOLO的行吊安全检测方法,属于信息工程技术领域。该方法首先针对特定应用场景采集数据,训练网络模型。在行吊顶部安装网络摄像头,向下拍摄,获取行吊下方视频,并输入训练好的网络进行实时处理,检测视频中出现的行人。当行吊吊运货物时,使用opencv函数在货物周围区域划定电子围栏,并设计区域入侵检测算法,实现行人闯入危险区域即报警的功能。本发明专利技术还公开了一种实现上述行吊安全检测方法的系统。本发明专利技术采用YOLO算法的目标检测分类模型,并针对特定应用场景进行优化,使得人物进入危险区域时进行实时报警,降低行吊使用过程中的安全隐患。低行吊使用过程中的安全隐患。低行吊使用过程中的安全隐患。

【技术实现步骤摘要】
一种基于YOLO的行吊安全检测方法及系统


[0001]本专利技术属于信息工程
,涉及一种基于YOLO的行吊安全检测方法及系统。

技术介绍

[0002]现如今,随着计算机视觉技术的发展,基于视觉的目标检测及跟踪技术已经广泛应用于人机交互,安保监控等领域,并展现出了强大的功能。
[0003]行吊系统被广泛安装在需要吊运货物的工厂车间环境中,但是在使用过程中,往往出现操作人员误闯入行吊下方吊运货物的区域,被货物砸中产生的事故。传统的用于解决此类问题的方法中,多使用红外传感器等传感手段监测人物活动,然而基于传感手段的监测方法灵敏度较低,且实时性较差,高精度的传感器成本昂贵。
[0004]YOLO是一种基于深度学习神经网络结构的目标检测算法,该算法将输入的图片分割成S*S的网格,然后每个单元格负责检测那些中心点落在该格子内的目标。每个单元格预测N个默认框,算法的输出是在每个网格处预测以该N个默认框为基础的偏移,并同时预测对应的类别。N个预置的默认框是通过在预训练数据集上进行聚类得到的具有代表性的框,因而能保证输出框的准确性和算法回归的收敛性。该算法可以消除由于背景发生变化带来的检测误差,即使背景十分复杂,还是可以识别目标。

技术实现思路

[0005]为了解决现有传统行吊安防方法技术存在的不足,本专利技术的目的是提供一种基于YOLO的行吊安全检测方法,将计算机视觉中的目标检测算法应用到行吊系统中,利用YOLO算法的目标检测手段实时监测行吊下方区域。
[0006]为了实现上述目的,本专利技术一种基于YOLO的行吊安全检测方法是通过以下方案实现的,具体包括以下步骤:
[0007]步骤1:预训练YOLO网络模型,根据应用场景采集数据进行迁移学习,设置置信度阈值,将置信度大于等于置信度阈值的目标用检测框框出。所述置信度阈值的大小根据实际检测效果设置,所设置的范围区间为(0~1)。
[0008]步骤2:在行吊顶部安装带有WiFi模块的网络摄像头,拍摄行吊下方吊运货物的区域,并将视频流实时传输到本地服务器。
[0009]步骤3:使用OpenCV中的rectangle方法在视频中行吊吊运货物区域的周围划定矩形电子围栏,将此区域设为危险区域。
[0010]步骤4:设计入侵检测算法,当检测到行人进入电子围栏划定的危险区域时,输出信号触发报警。
[0011]步骤5:截取行人闯入危险区域时的那一帧图像,并保存到本地以供查验。
[0012]进一步地,步骤1包括如下子步骤:
[0013]1.1、首先将YOLO的神经网络框架移植到深度学习软件tensorflow上,采用ImageNet1000分类数据集训练YOLO网络,得到预训练的网络权重文件。
[0014]1.2、用步骤1.1预训练得到的权重文件初始化YOLO模型。由于摄像头安装在行人上方,所以检测时视角为俯视视角,而常规数据集中摄像头拍摄视角大多在行人正前方。为了在这种特定的场景中有更好的检测效果,在工厂和商场二楼拍摄了俯视视角的图片,并用LabelImg工具制作标签作为行人俯视数据集,本数据集包括了1000张行人俯视视角的图像。将数据集中80%作为训练集,20%作为测试集,对YOLO网络进行迁移学习,提高模型泛化能力。所述YOLO网络迁移学习过程中通过提高网格分辨率提升精度,并固定识别类型为“person”;
[0015]1.3、经反复试验、测试设置置信度阈值。
[0016]1.4、对视频区域内的图像划定检测框,所述检测框按如下公式划定:
[0017][0018](x,y,w,h,confidence)
ꢀꢀꢀ
(2)
[0019]置信度(confidence)的值由(1)式确定,其中Pr(object)表示行人是否出现在YOLO算法所画的其中一个网格中,出现则为1,不出现则为0。表示预测框和实际框之间面积的重叠比例。YOLO模型检测行人时会直接输出(2)式中的五个值,其中(x,y)表示预测的边界框的中心与网格界线的相对值,(w,h)代表预测的边界框的宽度和高度相对于整幅图像的宽、高度的比例,其值在0~1之间。所述预测框是指YOLO算法预测出的框,所述实际框是指步骤1.2中制作行人俯视数据集时人工标定的框。
[0020]进一步地,步骤3划定电子围栏的方法包括:取视频中吊运货物面积的1.5倍作为危险区域,使用OpenCV中的rectangle方法划定危险区域的电子围栏。
[0021]进一步地,步骤4入侵检测算法采用如下方法:入侵检测算法主要采用逻辑判断的思想去判定是否有人进入虚拟电子围栏,以图像的左上角为笛卡尔坐标系原点(0,0),图像中向右、向下的方向为正值,从YOLO算法中提取目标检测框的左上角坐标(x1,y1)和右下角坐标(x2,y2),电子围栏框定的危险区域左上角坐标为(x'1,y'1),右下角坐标为(x'2,y'2)。通过以下四个式子来判断,行人是否处于电子围栏的范围之外:
[0022]当x1>x'2时,即目标框的左上角横坐标大于电子围栏的右下角横坐标;当y1>y'2时,即目标框的左上角纵坐标大于电子围栏的右下角纵坐标;当x2<x'1时,即目标框的右下角横坐标小于电子围栏的左上角横坐标;当y2<y'1时,即目标框的右下角纵坐标小于电子围栏的左上角纵坐标;以上四种情况只需满足其中任意一种,即可判定为行人是处于电子围栏的范围之外。其余情况均为行人的目标框入侵到电子围栏范围内,系统触发报警。例如,电子围栏左上角坐标为(200,200),右下角坐标为(300,300),行人检测框左上角坐标为(100,100),右下角坐标为(150,150),其坐标间关系满足上述行人处于电子围栏之外的条件,故可判断此时行人处于危险区域之外,其他情况下行人处于危险区域内。伪代码如下:
[0023]if(x1>x'
2 or y1>y'
2 or x2<x'
1 or y2<y'1)
[0024]then行人在电子围栏范围之外
[0025]else行人在电子围栏范围之内
[0026]本专利技术还提供了一种实现上述YOLO行吊安全检测方法的系统,所述系统包括:用于采集行吊下方区域视频并转化为数字图像信号传到本地的网络摄像头、用于训练和运行YOLO网络模型的工作站、用于测试的行吊系统、用于配置网络的路由器;
[0027]其中,所用的网络摄像头支持rtsp视频传输协议,将采集的视频流传入工作站进行处理。所用的工作站拥有3070GPU进行网络的训练和图像的检测。
[0028]本专利技术的有益效果包括:
[0029]本专利技术使用计算机视觉中YOLO算法作为行人检测的算法,代替了传统使用传感器的方法,使检测任务变得更加可行,只需安装一个成本较低的摄像头即可,并且相比较传统的检测,YOLO算法的检测更加具有实时性,且灵敏度较高,减少漏检带来的事故。
[0030]经过大本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于YOLO的行吊安全检测方法,其特征在于,包括以下步骤:步骤1:预训练YOLO网络模型,根据应用场景采集数据进行迁移学习,设置置信度阈值,将置信度大于等于置信度阈值的目标用检测框框出;步骤2:在行吊顶部安装带有WiFi模块的网络摄像头,拍摄行吊下方吊运货物的区域,并将视频流实时传输到本地服务器;步骤3:在视频中行吊吊运货物区域的周围划定矩形电子围栏,将此区域设为危险区域;步骤4:设计入侵检测算法,当检测到行人进入电子围栏划定的危险区域时,输出信号触发报警;步骤5:截取行人闯入危险区域时的那一帧图像,并保存到本地以供查验。2.根据权利要求1所述的方法,其特征在于,步骤1具体方法如下:1.1、首先将YOLO的神经网络框架移植到深度学习软件tensorflow上,采用ImageNet1000分类数据集训练YOLO网络,得到预训练的网络权重文件;1.2、用步骤1.1预训练得到的权重文件初始化YOLO模型,另外制作行人俯视数据集;将所述行人俯视数据集中的数据80%作为训练集,20%作为测试集,对YOLO网络进行迁移学习,提高模型泛化能力,所述YOLO网络迁移学习过程中通过提高网格分辨率提升精度,并固定识别类型为“person”;1.3、经反复试验、测试设置置信度阈值;1.4、对视频区域内的图像划定检测框,所述检测框按如下公式划定:(x,y,w,h,confidence)
ꢀꢀꢀꢀꢀꢀꢀ
(2)其中,confidence为置信度,其值由(1)式确定;Pr(object)表示行人是否出现在YOLO算法所画的其中一个网格中,出现则为1,不出现则为0;表示预测框和实际框之间面积的重叠比例;YOLO模型检测行人时会直接输出(2)式中的五个值,其中(x,y)表示预测的边界框的中心与网格界线的相对值,(w,h)代表预测的边界框的宽度和高度相对于整幅图像的宽、高度的比例,其值在0~1之间;所述预测框是指YOLO算法预测出的框,所述实际框是指步骤1.2中制作行人俯视数据集时人工标定的框。3.根据权利要求1所述的方法,其特征在...

【专利技术属性】
技术研发人员:夏祺皓余超顾恒豪彭萍萍郑正奇赵昆陈雯黄帅纪文清
申请(专利权)人:华东师范大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1