一种基于改进制造技术

技术编号:39779218 阅读:7 留言:0更新日期:2023-12-22 02:24
本发明专利技术属于交通智能驾驶技术领域,具体一种基于改进

【技术实现步骤摘要】
一种基于改进YOLOv8模型的交通类目标识别方法


[0001]本专利技术属于交通智能驾驶
,具体涉及交通类目标识别方法


技术介绍

[0002]近年来,随着无人驾驶技术和智能辅助驾驶系统进入高速发展阶段,对道路上交通类目标识别的要求也越来越高

通过对道路交通类目标进行实时的识别与检测,可以帮助智能辅助驾驶系统完成紧急避让

碰撞预警

超车并道等一些驾驶行为,从而有效降低人为因素引发交通事故的概率

然而交通场景下视觉图像易受环境影响,例如在恶劣天气

夜晚等情况下,会极大地影响着交通类目标的识别精度

因此,如何提高检测算法的鲁棒性为一大难题

[0003]目前基于视觉的目标检测技术主要分为两类:传统的目标检测算法和基于深度学习的目标检测算法

传统的目标检测算法的特征提取都是由人工设计,特征提取模块复杂,识别精度低

与传统方法相比,神经网络有着更加强大的学习特征能力和信息表征能力,目前已经成为了主流方法

基于卷积神经网络的目标检测可以分为基于锚的方法和无锚方法

基于锚的方法需要提前生成先验框,这种方法可以有效提高检测精度,但牺牲了检测速度;相反的,无锚方法牺牲精度以换取速度的提升

在交通类目标识别的场景下,速度和精度都影响着交通安全,均不可割舍,因此如何实现检测速度和精度的平衡是需要进一步解决的问题


技术实现思路


[0004]针对现有技术的不足,本专利技术的目的在于提供一种识别精度高

识别速度快的交通类目标识别方法

[0005]本专利技术提供的交通类目标识别方法,是基于改进
YOLOv8s
模型技术的,具体步骤为:
[0006]步骤一

采集

构建带有标签的多种场景下交通类目标数据集并与开源数据集进行融合提高泛化能力;
[0007]步骤二

引入
GSConv
轻量级卷积块

混合域注意力机制,在网络
neck
端对
YOLOv8
网络模型进行改进,并相应地对损失函数进行改进;
[0008]步骤三

对数据集中图片进行图像增强处理,并使用构建的交通类目标数据集对网络模型进行训练;
[0009]步骤四

选取训练中最优权重作为前向推理权重,前向推理生成
80
×
80、40
×
40、20
×
20
三种尺度大小的输出特征图,每个尺度下又分为类别预测分支和
bbox
预测分支,将两类分支拼接和维度变换后进行阈值过滤,对检测框进行初步筛选;基于前处理过程,进行非极大值抑制
(NMS)
,置信度设置为
0.5
,得到最终符合要求的预测框

[0010]进一步地,步骤一中,所述数据集由路侧单元和车载单元采集目标场景下的多段视频组成,另外为提升网络泛化能力,适量截取网络中不同开源数据集,与采集数据混合

路侧单元是在复杂交通路口安装的摄像头,车载单元是在自动驾驶车辆前端配备的前视摄像头,分别截取正常可视条件与黎明

黑夜

雨天

雾天和刺眼光线等恶劣条件下的视频流;每种条件下采集的视频流至少
40
段,每段不低于
10s
,按照
10Hz
频率抽取离散帧

使用
Labelimg
作为标注工具,为每帧图像标注检测框;检测框信息包括目标物体类别与检测框坐标,被遮挡目标需标注可见比例

检测的交通目标类型包括行人

汽车

卡车

公共汽车

自行车

摩托车

三轮车

紧急车辆

交通标志,为防止样本不均衡导致训练效果不佳,通过对图像进行增强处理使各类别比例趋于平衡,数据集按照
8:1:1
的比例换分为训练集,验证集和测试集

[0011]进一步地,步骤二中,所述
YOLOv8
模型的改进,主要是在网络
Neck
端和损失函数两个部分的改进

[0012](

)
在网络
Neck
端的改进:在
Neck
端用
GSconv
代替
Neck
中的
CBS
,用
C2fGC
代替
Neck
中的
C2f
模块,并且在
GSconv

C2fGC
之间插入混合域注意力机,以制提高模型鲁棒性

[0013]优选的,所述
GSconv
为一种轻量卷积模块,通过混合均匀操作
(shuffle)
,将标准卷积生成的信息与深度可分离卷积生成的信息进行融合,在较低的时间损耗下尽可能的保留通道之间的信息交互

[0014]优选地,
GSconv
代替原
Boottleneck
中的标准卷积,得到
GSBoottleneck
模块,使用
GSBoottleneck
代替原
C2f
模块中的
Boottleneck
,得到
C2fGC
模块

其结构参见图4所示

[0015]进一步地,所述混合域注意力机制使用
CBAM
模块
[1],其结构参见图5所示

该模块将空间模块和通道模块组合在一起,同时使用全局平均池化和全局最大池化策略,通过自适应调整特征图的通道权重和空间权重,可以更好地捕获并表示图像的重要特征,有效防止信息丢失,增强网络的特征表示能力

[0016](

)
在损失函数部分的改进:为提高收敛精度和模型泛化能力,引入
Wise

IoU
替代
CIoU
,构建得到
Wise

IoU Loss+DFL Loss
形式的回归损失函数,其公式为:
[0017]L

μ
DFL+
ν
L
WIOUv3
ꢀꢀ...

【技术保护点】

【技术特征摘要】
1.
一种基于改进
YOLOv8
模型的交通类目标识别方法,其特征在于,具体步骤为:步骤一

采集

构建带有标签的多种场景下交通类目标数据集并与开源数据集进行融合提高泛化能力;步骤二

引入
GSConv
轻量级卷积块

混合域注意力机制,在网络
neck
端对
YOLOv8
网络模型进行改进,并相应地对损失函数进行改进;步骤三

对数据集中图片进行图像增强处理,并使用构建的交通类目标数据集对网络模型进行训练;步骤四

选取训练中最优权重作为前向推理权重,前向推理生成
80
×
80、40
×
40、20
×
20
三种尺度大小的输出特征图,每个尺度下又分为类别预测分支和
bbox
预测分支,将两类分支拼接和维度变换后进行阈值过滤,对检测框进行初步筛选;基于前处理过程,进行非极大值抑制
(NMS)
,置信度设置为
0.5
,得到最终符合要求的预测框
。2.
根据权利要求1所述的交通类目标识别方法,其特征在于,步骤一中,所述数据集由路侧单元和车载单元采集目标场景下的多段视频组成;另外适量截取网络中不同开源数据集,与采集数据混合;所述路侧单元是设置在复杂交通路口安装的摄像头,所述车载单元是配置在自动驾驶车辆前端配备的前视摄像头;用于分别截取正常可视条件与黎明

黑夜

雨天

雾天和刺眼光线恶劣条件下的视频流;每种条件下采集的视频流至少
40
段,每段不低于
10s
,按照
10Hz
频率抽取离散帧;使用
Labelimg
作为标注工具,为每帧图像标注检测框;检测框信息包括目标物体类别与检测框坐标,被遮挡目标需标注可见比例;数据集按照
8:1:1
的比例换分为训练集,验证集和测试集
。3.
根据权利要求2所述的交通类目标识别方法,其特征在于,步骤二中,所述
YOLOv8
模型的改进,包括在网络
Neck
端和损失函数两个部分的改进;
(

)
在网络
Neck
端的改进:在
Neck
端用
GSconv
代替
Neck
中的
CBS
,用
C2fGC
代替
Neck
中的
C2f
模块,并且在
GSconv

C2fGC
之间插入混合域注意力机,以制提高模型鲁棒性;所述
GSconv
为一种轻量卷积模块,通过混合均匀操作,将标准卷积生成的信息与深度可分离卷积生成的信息进行融合,在较低的时间损耗下尽可能的保留通道之间的信息交互;
GSconv
代替原
Boottleneck
中的标准卷积,得到
GSBoo...

【专利技术属性】
技术研发人员:张冠华蒋旻陈志辉
申请(专利权)人:上海全欣智享科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1