基于改进YOLOV4的烟叶烟梗部位的识别定位系统技术方案

技术编号:34829073 阅读:13 留言:0更新日期:2022-09-08 07:20
本发明专利技术公开了一种基于改进YOLOV4的烟叶烟梗部位识别定位方法,包括以下步骤构建YOLOV4的算法模型,并对YOLOV4的算法模型进行改进;采集烟叶数据,并对烟叶数据进行预处理;采用采集的烟叶数据对改进后的YOLOV4的算法模型进行训练,并采用训练好的算法模型进行烟叶烟梗部位的识别;根据烟梗部位的识别,对烟梗部位进行坐标输出,可以大幅减少网络参数,提高模型检测准确率与系统识别速度。提高模型检测准确率与系统识别速度。提高模型检测准确率与系统识别速度。

【技术实现步骤摘要】
基于改进YOLOV4的烟叶烟梗部位的识别定位系统


[0001]本专利技术属于人工智能图像处理领域,具体涉及基于改进YOLOV4的烟叶烟梗部位识别定位方法。

技术介绍

[0002]传统的烟叶分级完全依靠人工经验,用眼观、手摸等方式进行。受不同地区不同分级人员的经验、年龄和文化程度等因素影响,很容易出现分级准确率低、主观性强的情况。此外,烟叶原料采集时因烟油等本身问题容易形成烟叶粘连,为烟叶自动化分级带来较大困难。

技术实现思路

[0003]为解决上述技术问题,本专利技术提供一种基于YOLOV4的烟叶烟梗部位识别定位方法。
[0004]具体方案如下:基于改进YOLOV4的烟叶烟梗部位识别定位方法,包括以下步骤步骤S1):构建YOLOV4的算法模型,并对YOLOV4的算法模型进行改进;步骤S2):采集烟叶数据,并对烟叶数据进行预处理;步骤S3):采用采集的烟叶数据对改进后的YOLOV4的算法模型进行训练,并采用训练好的算法模型进行烟叶烟梗部位的识别;步骤S4):根据烟梗部位的识别,对烟梗部位进行坐标输出。
[0005]所述YOLOV4算法模型包括输入层、主干网络、颈部网络和预测输出层,所述输入层、主干网络、颈部网络和预测输出层依次连接,所述主干网络为EfficientNet网络。
[0006]所述EfficientNet网络包括层数维度、宽度维度和分辨率维度,所述层数维度、宽度维度和分辨率维度的关系符合:其中,depth为层数维度,width为宽度维度,resolution为分辨率维度,是复合扩展法的参数,分别衡量着网络层数、宽度、与分辨率的比重。
[0007]改进后的YOLOV4的算法模型的残差结构采用深度可分离卷积对模型输入的不同图像特征进行卷积运算。
[0008]所述分离卷积的分离方法为,将卷积拆分为逐通道卷积和逐点卷积,逐通道卷积在二维平面进行卷积运算,每一个卷积核负责一个通道,通过卷积运算生成三通道的特性图像;逐点卷积通过1*1*3的卷积核,在逐通道卷积卷积生成的单色特征图的基础上对深度方向上的特征进行加权融合。
[0009]根据权利要求1所述的基于改进YOLOV4的烟叶烟梗部位识别定位方法,其特征在于:所述YOLOV4的算法模型采用alpha变量控制输入和输出的通道数本专利技术公开了一种YOLOV4的烟叶烟梗部位识别定位方法,减少传统YOLOv4的网络参数量,有助于提高网络的识别速率,加快网络训练速度,大量简化网络参数,减轻对模型训练的配置要求,提高网络模型的实用性与可移植性。在单姿态烟梗识别其mAP优于传统YOLOv4,在多姿态烟梗识别中其mAP值和传统YOLOv4相差仅为2%,但可以大幅减少网络参数,提高模型检测准确率与系统识别速度。
附图说明
[0010]图1是YOLOV4的模型结构示意图。
[0011]图2是深度可分离卷积的结构示意图。
[0012]图3是YOLOv4单姿态烟梗识别实验结果示意图。
[0013]图4是E

V单姿态烟梗识别实验示意图。
[0014]图5是E

V

D1单姿态烟梗识别实验结果示意图。
[0015]图6是E

V

D0.5单姿态烟梗识别结果图。
[0016]图7是YOLOv4多姿态烟梗识别实验结果图。
[0017]图8是E

Y多姿态烟梗识别识别结果图。
[0018]图9是E

Y

D1多姿态烟梗识别识别结果图。
[0019]图10是E

Y

D0.5多姿态烟梗识别结果图。
[0020]图11是单姿态识别定位图。
[0021]图12是多姿态识别定位图。
具体实施方式
[0022]下面将结合本专利技术中的附图,对本专利技术实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本专利技术一部分实施,而不是全部的实施,基于本专利技术的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本专利技术保护的范围。
[0023]基于改进YOLOV4的烟叶烟梗部位识别定位方法,其特征在于:包括以下步骤步骤S1):构建YOLOV4的算法模型,并对YOLOV4的算法模型进行改进;步骤S2):采集烟叶数据,并对烟叶数据进行预处理;步骤S3):采用采集的烟叶数据对改进后的YOLOV4的算法模型进行训练,并采用训练好的算法模型进行烟叶烟梗部位的识别;步骤S4):根据烟梗部位的识别,对烟梗部位进行坐标输出。
[0024]如图1所示,所述YOLOV4算法模型包括输入层1、主干网络2、颈部网络3和预测输出层4,所述输入层1、主干网络2、颈部网络3和预测输出层4依次连接,所述主干网络3为
EfficientNet网络。
[0025]YOLOv4网络由5个基本组件构成,CBM、CBL、Res unit、CSPX与SPP,CBM是Yolov4网络结构中的最小组件,由Conv+Bn+Mish激活函数三者组成,CBL是由由Conv+Bn+Leaky_relu激活函数三者组成,Res unit组件借鉴Resnet网络中的残差结构,让网络可以构建的更深,减少随着网络层数的加深信息丢失的现象。
[0026]CSPX结构借鉴CSPNet网络结构,由卷积层和X个Res unint模块Concate组成。
[0027]SPP组件则采用1
×
1,5
×
5,9
×
9,13
×
13的最大池化的方式,进行多尺度融合,低层特征分辨率更高,包含更多位置、细节信息,但是由于经过的卷积更少,其语义性更低,噪声更多。高层特征具有更强的语义信息,但是分辨率很低,对细节的感知能力较差,多尺度融合增强了网络对语义信息的提取,有利于提高网络的识别精度。
[0028]其中,Conv 表示卷积Convolution,CBM 表示 Conv 加批量正则Batch Norm,BN加 Mish 激活函数的合成模块,CSP 表示跨阶段部分Cross stage partial的结构,CBL 表示 Conv 加 BN 加 Leaky relu 激活函数的合成模块,Concat 表示一种通道数相加的特征融合方式,图中的*3 个表示此处应有 3个同样的模块构成所述EfficientNet网络包括层数维度、宽度维度和分辨率维度,所述层数维度、宽度维度和分辨率维度的关系符合:其中,depth为层数维度,width为宽度维度,resolution为分辨率维度,是复合扩展法的参数,分别衡量着网络层数、宽度、与分辨率的比重。
[0029]卷积神经网络在对同一个网络的性能提升进行性能提升时,可以通过增加网络的层数,或者增加网络的深度与初始图像的分辨率,而EfficientNet通过复合模型扩张结合神经网络搜本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.基于改进YOLOV4的烟叶烟梗部位识别定位方法,其特征在于:包括以下步骤步骤S1):构建YOLOV4的算法模型,并对YOLOV4的算法模型进行改进;步骤S2):采集烟叶数据,并对烟叶数据进行预处理;步骤S3):采用采集的烟叶数据对改进后的YOLOV4的算法模型进行训练,并采用训练好的算法模型进行烟叶烟梗部位的识别;步骤S4):根据烟梗部位的识别,对烟梗部位进行坐标输出。2.根据权利要求1基于改进YOLOV4的烟叶烟梗部位识别定位方法,其特征在于:所述YOLOV4算法模型包括输入层、主干网络、颈部网络和预测输出层,所述输入层、主干网络、颈部网络和预测输出层依次连接,所述主干网络为EfficientNet网络。3.根据权利安全2所述的基于改进YOLOV4的烟叶烟梗部位识别定位方法,其特征在于:所述EfficientNet网络包括层数维度、宽度维度和分辨率维度,所述层数维度、宽度维度和分辨率维度的关系符合:其中,d...

【专利技术属性】
技术研发人员:刘新宇郝同盟江涛常瑞徐燕王亚辉王继东
申请(专利权)人:华北水利水电大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1