一种改进YOLOv2模型的多车辆目标识别方法技术

技术编号:27143562 阅读:17 留言:0更新日期:2021-01-27 21:34
本发明专利技术公开了一种改进YOLOv2模型的多车辆目标识别方法,首先采集实际交通环境下的样本数据,将样本数据以7:3的比例分为训练集和测试集的样本图像;然后对训练集样本图像进行数据增强,包括对样本图像进行随机放缩、对曝光度和饱和度的调整,使处理后的图像作为训练模型的输入;将处理后的训练集通过改进的Darknet

【技术实现步骤摘要】
一种改进YOLOv2模型的多车辆目标识别方法


[0001]本专利技术属于图像检测和分类
,具体涉及一种改进YOLOv2模型的多车辆目标识别方法。

技术介绍

[0002]图像检测和图像分类技术是图像处理技术的重要组成部分,在许多领域中均有广泛的应用,如遥感图像识别、军事刑侦、现代生物医学、智能交通等。然而传统的目标检测和识别方法,如基于Haar特征的Cascade分类器、主要针对特定目标的检测,受限于多分类的目标而且目标的区域选择过程较复杂、检测识别效率低下。在选择对象的时候其特征提取存在主观性强,鲁棒性差,泛化能力弱等不足,在实际应用中难以达到精准的识别效果。相对于传统的方法,深度学习的优势非常明显。基于深度学习的车辆检测和识别技术己成为现阶段的研究趋势。
[0003]目前基于深度学习的检测算法基本分为三个方向:一是通过提取候选区域,并对相应区域进行以深度学习方法为主的分类的方案,如:RCNN、SPP-net、Fast-RCNN、Faster-RCNN、R-FCN等;二是基于深度学习的回归方法,如YOLO、SSD等方法;三是结合RNN算法的RRC方法和结合DPM的Deformable CNN等方法。基于CNN、R-CNN和Fast-RCNN模型进行车辆检测等方法,在实际的应用中无法在检测精度和检测速度达到实时检测的效果。YOLOv2是实时的物体检测算法,遵循端到端训练和实时检测的设计理念,在检测过程中可以直接从输入图像到检测输出,直接将目标位置和其对应位置的置信度评分作为输出,省略了生成候选框这一步骤,极大的缩短了检测时间。YOLO的检测速度可以达到45Fps/s,但是其检测和识别的精度略低于Faster-RCNN。为提高对检测和识别的精度,本专利技术在YOLOv2的基础上进行了对网络模型进行了改进,在保持原有速度的同时,提高了算法的检测和识别精度及其鲁棒性。

技术实现思路

[0004]本专利技术的目的是提供一种改进YOLOv2模型的多车辆目标识别方法,解决了现有技术针对道路车辆多目标检测和车型分类方法检测率较低、鲁棒性差且分类效果不理想的问题。
[0005]本专利技术所采用的技术方案是,一种改进YOLOv2模型的多车辆目标识别方法,具体按照以下步骤实施:
[0006]步骤1、采集实际交通环境下的样本数据,将样本数据以7:3的比例分为训练集和测试集的样本图像;
[0007]步骤2、对训练集样本图像进行数据增强,包括对样本图像进行随机放缩、对曝光度和饱和度的调整,使处理后的图像作为训练模型的输入;
[0008]步骤3、将步骤2处理后的训练集通过改进的Darknet-19网络进行目标区域特征向量的提取;
[0009]步骤4、将步骤2的训练集输入到Darknet-19网络模型中进行训练,得到检测与识别的模型;
[0010]步骤5、将步骤2得到的测试集输入到步骤4得到模型中进行测试,得到多目标车辆识别的结果。
[0011]本专利技术的特点还在于,
[0012]步骤1具体如下:
[0013]步骤1.1、拍摄实时道路交通环境下的车辆信息,将拍摄的视频分帧提取成为图像格式并将图像质量较差的图片进行删除;
[0014]步骤1.2、利用LabImage标注工具对选取的图片中车辆进行标注,框出目标区域,并对目标区域的车辆进行分类并制作标签,标签为car、bus、van、truck,每张图片生成一个.xml文件,最后利用Matlab对上述.xml文件进行随机的分配,生成训练集、测试集和验证集,形成完整的数据集;
[0015]步骤1.3、训练集包含3个文件夹,分别为Annotation、ImageSets和JPEGImages,其中文件夹Annotation中存放.xml文件,每一个.xml文件对应一张图像,并且每个xml文件中存放的是标记的各个目标的位置和类别信息,命名与对应的原始图像一样,在ImageSets文件夹下的Main文件夹存放文本文件,格式为train.txt、test.txt,ImageSets文件夹里面的内容是需要用来训练或测试的图像的名字,JPEGImages文件夹中存放已按统一规则命名好的原始图像。
[0016]步骤3具体如下:
[0017]步骤3.1、分别对Darknet-19网络中的卷积层数、池化层数、BN层数和激活函数进行调参,最终得到改进的YOLOv2-S网络,YOLOv2-S网络包含20个卷积层、5个池化层、20个批量归一化层,即BN层和Leaky-Linear激活函数;
[0018]步骤3.2、提取特征向量,具体如下:
[0019](1)第1、3、5、6、7、9、10、11、13、14、15、16、17、19、20、21、22、23、24、31层为卷积层,第2、4、8、12、18层为最大池化层,26、29层为route层,32层为检测层;
[0020](2)卷积层中第1、3、5、7、9、11、13、15、17、19、21、23层卷积核的大小设置为3
×
3,卷积核深度设置分别为32、64、128、128、256、256、512、512、512、1024、1024、1024,第6、10、14、16、20、22、24、27层卷积核的大小设置为1
×
1,卷积核深度设置分别为64、128、256、256、512、256、1024、5030;
[0021](3)最大池化层中第2、4、8、12、18层卷积核的大小设置为2
×
2,步长设置为2;
[0022](4)route层作用为层合并,即把多个层的特征融合到下一层一并输出,route层第29层将卷积层的28层和25层合并到一起输出得到特征向量。
[0023]步骤4具体如下:
[0024]步骤4.1、训练集输入,过程具体如下:
[0025]步骤4.1.1、将步骤2得到的图片分割成s
×
s个单元格,如果待识别目标中心位置落在某一个单元格内,则相应的单元格负责检测该目标;然后对每个单元格进行直接位置预测,产生所需要的B个包围框bounding box的位置,每一个包围框bounding box得到5个预测值:分别为(t
x
,t
y
)、(t
w
,t
h
)和置信度Confidence。
[0026]每个包围框bounding box的中心离开其所在单元格边界的偏移量为σ(t
x
),σ(t
y
),
(t
w
,t
h
)是相对于整幅图像的比例宽高的目标真实宽高,包围框bounding box距离图像左上角的边距为(c
x
,c
y
),单元格对应的包围框bounding box的长和宽分别为(p
w
,p
h
),其中,x表示单元格的长,y表示单元格的本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种改进YOLOv2模型的多车辆目标识别方法,其特征在于,具体按照以下步骤实施:步骤1、采集实际交通环境下的样本数据,将样本数据以7:3的比例分为训练集和测试集的样本图像;步骤2、对训练集样本图像进行数据增强,包括对样本图像进行随机放缩、对曝光度和饱和度的调整,使处理后的图像作为训练模型的输入;步骤3、将步骤2处理后的训练集通过改进的Darknet-19网络进行目标区域特征向量的提取;步骤4、将步骤2的训练集输入到Darknet-19网络模型中进行训练,得到检测与识别的模型;步骤5、将步骤2的测试集输入到步骤4得到模型中进行测试,得到多目标车辆识别的结果。2.根据权利要求1所述的一种改进YOLOv2模型的多车辆目标识别方法,其特征在于,所述步骤1具体如下:步骤1.1、拍摄实时道路交通环境下的车辆信息,将拍摄的视频分帧提取成为图像格式并将图像质量较差的图片进行删除;步骤1.2、利用LabImage标注工具对选取的图片中车辆进行标注,框出目标区域,并对目标区域的车辆进行分类并制作标签,标签为car、bus、van、truck,每张图片生成一个.xml文件,最后利用Matlab对上述.xml文件进行随机的分配,生成训练集、测试集和验证集,形成完整的数据集;步骤1.3、训练集包含3个文件夹,分别为Annotation、ImageSets和JPEGImages,其中文件夹Annotation中存放.xml文件,每一个.xml文件对应一张图像,并且每个xml文件中存放的是标记的各个目标的位置和类别信息,命名与对应的原始图像一样,在ImageSets文件夹下的Main文件夹存放文本文件,格式为train.txt、test.txt,ImageSets文件夹里面的内容是需要用来训练或测试的图像的名字,JPEGImages文件夹中存放已按统一规则命名好的原始图像。3.根据权利要求2所述的一种改进YOLOv2模型的多车辆目标识别方法,其特征在于,所述步骤3具体如下:步骤3.1、分别对Darknet-19网络中的卷积层数、池化层数、BN层数和激活函数进行调参,最终得到改进的YOLOv2-S网络,YOLOv2-S网络包含20个卷积层、5个池化层、20个批量归一化层,即BN层和Leaky-Linear激活函数;步骤3.2、提取特征向量,具体如下:(1)第1、3、5、6、7、9、10、11、13、14、15、16、17、19、20、21、22、23、24、31层为卷积层,第2、4、8、12、18层为最大池化层,26、29层为route层,32层为检测层;(2)卷积层中第1、3、5、7、9、11、13、15、17、19、21、23层卷积核的大小设置为3
×
3,卷积核深度设置分别为32、64、128、128、256、256、512、512、512、1024、1024、1024,第6、10、14、16、20、22、24、27层卷积核的大小设置为1
×
1,卷积核深度设置分别为64、128、256、256、512、256、1024、5030;(3)最大池化层中第2、4、8、12、18层卷积核的大小设置为2
×
2,步长设置为2;(4)route层作用为层合并,即把多个层的特征融合到下一层一并输出,route层第29层
将卷积层的28层和25层合并到一起输出得到特征向量。4.根据权利要求3所述的一种改进YOLOv2模型的多车辆目标识别方法,其特征在于,所述步骤4具体如下:步骤4.1、训练集输入,过程具体如下:步骤4.1.1、将步骤2得到的图片分割成s
×
s个单元格,如果待识别目标中心位置落在某一个单元格内,则相应的单元格负责检测该目标;然后对每个单元格进行直接位置预测,产生所需要的B个包围框bounding box的位置,每一个包围框bounding box得到5个预测值:分别为(t
x
,t
y
)、(t
w
,t
h
)和置信度Confidence;每个包围框bounding box的中心离开其所在单元格边界的偏移量为σ(t
x
),σ(t
y
),(t
w
,t
h
)是相对于整幅图像的比例宽高的目标真实宽高,包围框bounding box距离图像左上角的边距为(c
x
,c
y
),单元格对应的包围框bounding box的长和宽分别为(p
w
,p
h
),其中,x表示单元格的长,y表示单元格的宽,w表示包围框bounding box的宽,h表示包围框bounding box的高,则包围框bounding box的真实位置如下式所示:b
x
=σ(t
x
)+c
x
b
y
=σ(t
y
)+c
y
b
w
=p
w
e
tw
b
h
=p
h
e
th
通过包围框bounding box与对应待检测目标的概率及该包围框bounding box和真实位置的IOU积的关系对该包围框bounding box预测位置...

【专利技术属性】
技术研发人员:李珣时斌斌聂婷婷张玥李林鹏贠鑫
申请(专利权)人:西安工程大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1