基于深度学习用于无人驾驶的交通目标检测方法技术

技术编号:37222096 阅读:21 留言:0更新日期:2023-04-20 23:07
本发明专利技术提供一种基于深度学习用于无人驾驶的交通目标检测方法,在现有的成熟模型YOLOv5基础上,通过在SPP模块前加入一种改进的卷积与自注意力机制融合的ACmix模块、增加多尺度目标检测层,接下来下载并处理BDD100K数据集,构建用于模型训练的训练集、验证集和测试集,最后将BDD100K数据集送入构建好的基于YOLOv5改进的交通目标检测模型进行模型的训练、测试、评估;在模型构建阶段,引入的ACmix模块更有利于提取目标特征。在训练阶段,将送入的数据集中不包含交通目标的图像进行删除,以免干扰模型的训练,加速网络收敛。在评估阶段,通过调整模型的宽度和深度,优化模型的精确度和速度,以满足实际应用的需求。以满足实际应用的需求。以满足实际应用的需求。

【技术实现步骤摘要】
基于深度学习用于无人驾驶的交通目标检测方法


[0001]本专利技术涉及基于深度学习用于无人驾驶的交通目标检测方法。

技术介绍

[0002]随着自动驾驶技术的不断发展,目标检测方法越来越受到关注。由于实际行驶道路的复杂性和多样性,迅速、准确且高精度的目标检测方法的提出对于自动驾驶等方面有着重要的作用。在道路环境中,摄像头拍摄的图像中待识别的目标图像背景复杂,交通目标大小不一,还存在动态物体和遮挡问题等。基于深度学习的目标检测技术是计算机视觉领域中最重要的研究方向之一。随着人工智能技术发展以及计算机硬件不断升级迭代,目标检测在从传统的特征提取方法,逐渐发展到使用深度学习技术进行检测。深度学习目标检测领域包括以YOLO为代表的单阶段目标检测速度快、精度高、模型精简便于改进,但实时性差,对于低分辨率弱小目标检测精度低,还容易出现漏检误检现象。

技术实现思路

[0003]为了克服现有技术中的不足,本专利技术提供一种基于深度学习用于无人驾驶的交通目标检测方法。
[0004]为了达到上述专利技术目的,解决其技术问题所采用的技术方案如下:
[0005]一种基于深度学习用于无人驾驶的交通目标检测方法,包括以下步骤:
[0006]S1:下载并处理BDD100K数据集,包括训练数据集和测试数据集;
[0007]S2:对模型增加多尺度目标检测层;
[0008]S3:在YOLOv5网络模型中引入ACmix模块,能增强模型的特征表达和学习能力,减少模型运算开销。
[0009]进一步的,所述S1包括以下内容:将下载好的BDD100K数据集由json格式转换成YOLOv5采用的txt格式,BDD100K数据集采用真实拍摄图像构建交通目标检测训练数据集和测试数据集,训练数据集由10万幅图像组成,包含bus、car、truck、person、bike、motor六类样本,并按照train:val:test=7:2:1的比例划分为训练集70000幅、验证集20000幅、测试集10000幅用于模型训练、验证及测试。
[0010]进一步的,所述S1中:bus为中型客车、大型客车;car为包含轿车、面包车、SUV各种形态的小汽车;truck为包含皮卡在内的小、中、大型货车;person为人类;bike为自行车。motor为摩托车。
[0011]进一步的,所述S2包括以下内容:
[0012]S2

1:在YOLOv5目标检测模型的PAN特征融合网络的上采样模块中,增加一个上采样层,所述的上采样层是在8倍、16倍和32倍上采样层的基础上,增加的4倍上采样层;
[0013]S2

2:在YOLOv5目标检测模型的PAN特征融合网络中,增加一个Concat融合层,将S2

1中所述的增加的4倍上采样层与骨干网络特征提取过程中得到的相同尺寸的特征图通过增加的Concat融合层进行特征融合,产生4倍上采样的特征图;
[0014]S2

3:增加小目标检测层,将S2

2中所述的4倍上采样的特征图用于小目标的检测,基于深度学习用于无人驾驶的交通目标检测模型增加为4种尺度的预测层,用于Head部分的多尺度检测;
[0015]S2

4:根据S2

3增加的小目标检测层,增加一组小目标尺寸的锚点框,采用K

means自适应算法获取符合小目标尺度特点的锚点框。
[0016]进一步的,所述S3中:
[0017]在YOLOV5网络模型中引入ACmix模块,具体在YOLOv5的backbone网络末尾,即backbone网络中最后一个CBL模块和SPP模块之间,插入ACmix模块,提升模型特征表达能力,减少模型运算开销。
[0018]本专利技术由于采用以上技术方案,使之与现有技术相比,具有以下的优点和积极效果:通过多尺度融合特征,利用卷积与自注意力结合的优势,提高了准确度,降低了计算量,兼顾了准确度与检测效率。
附图说明
[0019]为了更清楚地说明本专利技术实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单的介绍。附图中:
[0020]图1是本专利技术基于深度学习用于无人驾驶的交通目标检测方法的流程图;
[0021]图2是本专利技术的检测网络模型结构示意图;
[0022]图3是本专利技术ACmix结构示意图。
具体实施方式
[0023]下面将结合附图对本专利技术的技术方案进行清楚、完整地描述,显然,所描述的实施例是本专利技术一部分实施例,而不是全部的实施例。基于本专利技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本专利技术保护的范围。
[0024]如图1所示,本专利技术公开了一种基于深度学习用于无人驾驶的交通目标检测方法,包括以下步骤:
[0025]S1:下载并处理BDD100K数据集,包括训练数据集和测试数据集。
[0026]进一步的,S1包括以下内容:
[0027]将下载好的BDD100K数据集由json格式转换成YOLOv5采用的txt格式,BDD100K数据集采用真实拍摄图像构建交通目标检测训练数据集和测试数据集,训练数据集由10万幅图像组成,包含bus、car、truck、person、bike、motor六类样本,并按照train:val:test=7:2:1的比例划分为训练集70000幅、验证集20000幅、测试集10000幅用于模型训练、验证及测试。
[0028]S2:对模型增加多尺度目标检测层。
[0029]进一步的,S2包括以下内容:
[0030]S2

1:在如图2所示的,YOLOv5目标检测模型的PAN特征融合网络的上采样模块中,增加一个上采样层,所述的上采样层是在8倍、16倍和32倍上采样层的基础上,增加的4倍上采样层;
[0031]S2

2:在YOLOv5目标检测模型的PAN特征融合网络中,增加一个Concat融合层,将
S2

1中所述的增加的4倍上采样层与骨干网络特征提取过程中得到的相同尺寸的特征图通过增加的Concat融合层进行特征融合,并采用4级空间金字塔池化(Spatial Pyramid Pooling)增大感受野,将4级不同尺寸的特征图利用SPP实现多尺度特征融合,实现Neck部分的多尺度特征融合,具体的Neck结构如图2所示;
[0032]S2

3:增加小目标检测层,将步骤S2

2中所述的4倍上采样的特征图用于小目标的检测,基于改进YOLOv5的红外图像行人目标检测深度学习模型增加为4种尺度的预测层,分别为4倍、8倍、16倍、32倍上采样特征层,对于512
×
512的输入红外图像,增加检测层后得到的四个特征尺度分别为:128
×
1本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于深度学习用于无人驾驶的交通目标检测方法,其特征在于,包括:S1:下载并处理BDD100K数据集,包括:训练数据集和测试数据集;S2:对YOLOv5目标检测模型增加多尺度目标检测层;S3:在YOLOv5目标检测模型中引入ACmix模块,以增强模型的特征表达和学习能力,减少模型运算开销。2.根据权利要求1所述的基于深度学习用于无人驾驶的交通目标检测方法,其特征在于,所述S1,包括:将下载好的BDD100K数据集由json格式转换成YOLOV5采用的txt格式,BDD100K数据集采用真实拍摄图像构建交通目标检测训练数据集和测试数据集,训练数据集由10万幅图像组成,包含:bus、car、truck、person、bike和motor六类样本,并按照train:val:test=7:2:1的比例划分为训练集70000幅、验证集20000幅和测试集10000幅用于模型训练、验证及测试。3.根据权利要求2所述的基于深度学习用于无人驾驶的交通目标检测方法,其特征在于,所述S1中,bus为中型客车、大型客车;car为包含轿车、面包车、SUV各种形态的小汽车;truck为包含皮卡在内的小、中、大型货车;person为人类;bike为自行车;motor为摩托车。4.根据权利要求1所述的基于深度学习用于无人驾驶的交通目标检测方法,其特征在于...

【专利技术属性】
技术研发人员:朱勇建李长旭王栋张裕王嘉钰刘云翔
申请(专利权)人:上海应用技术大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1