【技术实现步骤摘要】
基于yolo3技术的渣土车洁净度视频识别分析方法
本专利技术涉及视频识别
,具体来说是基于yolo3技术的渣土车洁净度视频识别分析方法。
技术介绍
渣土车管理是城市管理中的难点,特别是渣土车运输作业时灰尘对环境造成重大污染,因此渣土车出施工现场后的洁净度一直是主管部门监测的重点。现有技术中,多采用传感器进行渣土车清洁度的监测,但其难以实现对渣土车清洁度的高准确率识别。虽有部分技术提出,利用传统的图像特征提取技术进行监测,但其仍存在构建过程繁琐、泛化能力不强等问题。特别是,渣土车的行驶在视频过程中属于动态过程,并且随着渣土车的行驶过程,经过甩泥、清洗等过程后,其清洁度也属于实时变化的过程。针对其进行视频识别分析,涉及复杂背景下的运动目标检测识别跟踪,技术难度较大。因此,如何开发出一种渣土车洁净度视频实现识别方法已经成为急需解决的技术问题。
技术实现思路
本专利技术的目的是为了解决现有技术中难以实现渣土车洁净度视频识别的缺陷,提供一种基于yolo3技术的渣土车洁净度视频识别分析方 ...
【技术保护点】
1.一种基于yolo3技术的渣土车洁净度视频识别分析方法,其特征在于,包括以下步骤:/n11)渣土车实时视频采集图像的获取和预处理:获取渣土车实时视频采集图像,并按照视频帧进行处理,每视频帧均按标准VOC数据格式对采集的图像数据进行处理;/n12)洁净度识别模型的构建与训练:利用darknet网络搭建渣土目标检测网络框架,对搭建后的渣土目标检测网络框架进行训练,得到训练后洁净度识别模型;/n13)渣土车洁净度的识别分析:将预处理后的视频帧输入训练后的洁净度识别模型,通过洁净度识别模型提取出特征,输出渣土位置预测值和渣土类别概率预测值。/n
【技术特征摘要】
1.一种基于yolo3技术的渣土车洁净度视频识别分析方法,其特征在于,包括以下步骤:
11)渣土车实时视频采集图像的获取和预处理:获取渣土车实时视频采集图像,并按照视频帧进行处理,每视频帧均按标准VOC数据格式对采集的图像数据进行处理;
12)洁净度识别模型的构建与训练:利用darknet网络搭建渣土目标检测网络框架,对搭建后的渣土目标检测网络框架进行训练,得到训练后洁净度识别模型;
13)渣土车洁净度的识别分析:将预处理后的视频帧输入训练后的洁净度识别模型,通过洁净度识别模型提取出特征,输出渣土位置预测值和渣土类别概率预测值。
2.根据权利要求1所述的基于yolo3技术的渣土车洁净度视频识别分析方法,其特征在于,所述洁净度识别模型的构建与训练包括以下步骤:
21)搭建yolo3网络构建洁净度识别模型,洁净度识别模型包括yolo3分类网络和yolo3检测网络;yolo3分类网络使用darknet结构,由一系列的1*1、3*3的卷积层组成,每个卷积层后接BN层和LeakyReLu层,网络主干由52个卷积层组成;yolo3检测网络采用多尺度预测结构;
22)yolo3网络使用darknet结构,darknet结构为一个全卷积网络,无全连接层,其网络的损失函数定义如下:
xyloss=confindence*(2-w*h)*crossentropy,
whloss=confidence*(2-w*h)*(whTrue-whPred),
confidenceloss=confidence*crossentropy+(1-confidence)*crossentropy*ignore,
classloss=confidence*crosstropy,
totalloss=xyloss+whloss+confidenceloss+classloss,
式中,xyloss表示物体中心点坐标损失,whloss表示anchor长宽回归值的损失,confidenceloss表示置信度损失,classloss表示类别损失;
23)设定Yolo3采用上采样法和融合法,融合f*f、2f*2f、4f*4f共3个尺度的先验框,在3个尺度的融合特征图上分别进行独立检测;
24)设定Yolo3中每个单元格预测3个包含渣土信息的边界框,每个边界框包含(4+1+c)*3个值,其中4表示坐标信息、1表示对象置信度、c表示目标类别概率;
边界框中坐标预测如下:
tx=(Gx-CX),
ty=(Gy-Cy),
tw=log(Gw-Pw),
th=log(Gh-Ph),
bx=σ(tx)+cx,
by=σ(ty)+cy,
bh=Pheh,
其中,Cx、Cy是特征图中单元格的左上角坐标,yolov3中每个单位格在特征图中的宽和高均为1,即公式中Cx、Cy均为1,Pw、Ph是预设的边界框映射到特征图中的宽和高,Gx、Gy是目标实际框在这个特征图上的中心点坐标,
Gw、Gh是目标实际框在这个特征图上的宽和高,tx、ty是预测的坐标偏移值,tw、th是尺度缩放,最终得到的边框坐标值是bx、by、bw、bh即边界框相对于特征图的位置和大小;
25)设定Confindence反映了当前边界框是否含有渣土以及渣土位置的准确性,计算方式如下:
confidence=P(Object)*IOU(pred*groudtruth)
其中,当P(Object)=1表示boundingbox包含目标物体渣土,
P(Object)=0表示不包含目标物体渣土,
IOU为交并比,为预测边界框与真实区域的面积,面积以像素面积计算;
26)设定Yolo预测阶段,类别概率为类别的条件概率与confidence的乘积,计算公式如下:
class=Pr(Classi|Object)*confidence
其中,Pr(Classi|Object)表示对象类别的条件概率,class反映了boundingbox是否包含目标渣土和边界框坐标的准确度;
27)对yolo3网络进行超参数设定,将采用随机梯度下降法训练网络,训练出洁净度识别模型,其中初始学习率设定为0.001,梯度下降动量为0.9,权重衰减正则为0.0001。
3.根据权利要求1所述的基于yolo3技术的渣土车洁净度视频识别分析方法,其特征在于:还包括渣土车视频目标的跟踪处理步骤;...
【专利技术属性】
技术研发人员:施星靓,刘胜军,李晓洁,孟虎,孙浪,
申请(专利权)人:合肥城市云数据中心股份有限公司,
类型:发明
国别省市:安徽;34
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。