一种基于YOLOv5的城市街道场景目标检测方法技术

技术编号:38135812 阅读:9 留言:0更新日期:2023-07-08 09:47
本发明专利技术涉及目标检测技术领域,公开了一种基于YOLOv5的城市街道场景目标检测方法,包括以下步骤:步骤1:构建基于改进YOLO

【技术实现步骤摘要】
一种基于YOLOv5的城市街道场景目标检测方法


[0001]本专利技术涉及目标检测
,具体涉及一种基于YOLOv5的城市街道场景目标检测方法。

技术介绍

[0002]城市街道场景目标检测属于计算机视觉目标检测领域的一个分支,广泛应用于自动驾驶,交通安全检测等领域。与其他目标检测问题相同,城市街道场景目标检测的目的同样是希望通过计算机视觉技术实现检测自动化,达到降低人工成本、提高检测效率与精度的效果。具体地,相比于其他目标检测问题,城市街道场景的特殊之处在于,城市街道场景中存在着机动车与机动车、机动车与非机动车、机动车与行人之间的重叠与交互,检测难度较高,难以准确且全面地识别出场景中的目标。
[0003]随着深度学习技术的发展,现有的城市街道场景目标检测技术通常采用以YOLO为框架的一阶段目标检测技术及以Faster R

CNN为框架的二阶段目标检测技术。例如现有的一种基于YOLOv5的轻量级目标检测方法,通过设置深度可分离卷积模块等,能够减少模型参数量,达到较高的检测效率,但同样受限于此,其检测精度相应降低了。还有的一种基于Faster R

CNN模型的检测方法,其中构建有RPN结构(即区域生成网络),该结构可辅助达到较高的检测精度,但模型参数量过大,检测效率很低。总的来看,后者的检测精度明显优于前者,前者的检测效率明显优于后者。因此,现有的两类方法均各有优劣,无法同时保证检测精度与检测效率。

技术实现思路

[0004]本专利技术意在提供一种基于YOLOv5的城市街道场景目标检测方法,能够在达到较高的检测精度的同时,保证达到较高的检测效率。
[0005]本专利技术提供的基础方案为:一种基于YOLOv5的城市街道场景目标检测方法,包括以下步骤:
[0006]步骤1:构建基于改进YOLO

v5的目标检测模型;所述目标检测模型包括主干特征提取网络、特征融合模块和输出模块;且主干提取网络中的下采样模块由可变形卷积单元和Focus单元组成;特征融合模块的下采样模块由预设步距的卷积单元和Focus单元组成;
[0007]步骤2:训练目标检测模型;
[0008]步骤3:由训练后的目标检测模型进行场景目标检测;其中,由主干特征提取网络提取待检测场景图像的特征;由特征融合模块输出不同尺度的特征图;并由输出模块基于特征图输出目标检测特征图。
[0009]进一步,所述预设步距的卷积单元为步距为1的卷积单元。
[0010]进一步,所述主干提取网络和特征融合模块中均包括C3单元、可变形卷积单元、Focus单元和SPPF单元。
[0011]进一步,所述输出模块的预测特征层上接有SOCA模块。
[0012]进一步,在训练目标检测模型时,损失函数采用SIOU函数。
[0013]进一步,在训练目标检测模型时,基于计算所得的损失,使用反向传播算法更新检测模型参数,并迭代至检测模型收敛。
[0014]进一步,特征融合模块输出特征图时,分别输出四个不同尺度的特征图,且对应用于检测小目标、中目标、中大目标及大目标。
[0015]进一步,输出模块基于特征图输出四组不同尺度的目标边界框回归参数和目标类别,根据置信度阈值将目标边界框和目标类别画在待检测图像上,进而形成目标检测特征图。
[0016]本专利技术的工作原理及优点在于:
[0017]本方案自原始的YOLO

v5模型出发,对原始的YOLO

v5模型进行了改进,首先使用可变形卷积配以Focus模块作为目标检测模型主干提取网络的下采样模块,替代了原始YOLO

v5的主干提取网络中的下采样模块;使用预设步距的卷积单元和Focus单元作为目标检测模型主干提取网络的下采样模块,替代了原始YOLO

v5的特征融合模块中的下采样模块。然后使用SIOU损失函数替代了原始YOLO

v5中采用的CIOU损失函数。并在预测特征层后增设有SOCA模块,进而形成了新的基于改进YOLO

v5的目标检测模型,能够达到更高的目标检测效率和目标检测精准度。
[0018]其中,可变形卷积单元的设置能够自适应提取特征,Focus模块能够保留全局信息,进而有助于提高检测精度,并且,配合以YOLO本身的一阶段检测特性,可保证达到较高的检测效率。SIOU损失函数的设置,相较于CIOU损失函数,其训练效果更佳,训练速度和推理准确度更高;SOCA模块的设置,能够利用比一阶更高的特征统计,去自适应地重新调整特征,此模块的设置使网络能够关注更多的信息特征,有助于增强模型整体的判别学习能力,进而达到较高的目标检测精度。
[0019]此外,本方案相较于常规的基于普通YOLO

v5的目标检测方案,能够达到的检测精度更高;本方案相较于现有的基于Faster R

CNN的目标检测方案,本方案不受RPN结构局限,能够达到的检测效率更高;即,本方案能够同步保有较高的检测精度和检测效率。本方案通过对主干提取网络和特征融合模块中的下采样模块进行替换改进,能够大幅提升模型的特征提取和融合能力,使得模型能够识别出更精细的目标信息,使得目标识别自例如车辆的大类别,进一步细分至例如自行车、摩托车、汽车、面包车的细分类别,也使得常规难以识别出的重叠信息(包括机动车与机动车、机动车与非机动车、机动车与行人之间的重叠与交互情况),能够得到准确判别;并结合设置于模型特定位置处的SOCA模块,为模型赋予了更高一阶的特征统计能力,使得模型保有YOLOv5的一阶特性下的高识别效率的同时,能够拥有更为高阶的特征统计能力,进而能够识别出更为全面、丰富的目标信息。
附图说明
[0020]图1为本专利技术一种基于YOLOv5的城市街道场景目标检测方法实施例的方法流程示意图;
[0021]图2为本专利技术一种基于YOLOv5的城市街道场景目标检测方法实施例的目标检测模型结构示意图;
[0022]图3为本专利技术一种基于YOLOv5的城市街道场景目标检测方法实施例的模型检测效
果第一对比图;
[0023]图4为本专利技术一种基于YOLOv5的城市街道场景目标检测方法实施例的模型检测效果第二对比图;
[0024]图5为本专利技术一种基于YOLOv5的城市街道场景目标检测方法实施例的模型检测效果第三对比图;
[0025]图6为本专利技术一种基于YOLOv5的城市街道场景目标检测方法实施例的模型检测效果第四对比图。
具体实施方式
[0026]下面通过具体实施方式进一步详细的说明:
[0027]实施例基本如附图1所示:一种基于YOLOv5的城市街道场景目标检测方法,包括以下步骤:
[0028]步骤1:构建基于改进YOLO

v5的目标检测模型。
[0029]如附图2所示,所述目标检测模型包括主干特征提取网本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于YOLOv5的城市街道场景目标检测方法,其特征在于,包括以下步骤:步骤1:构建基于改进YOLO

v5的目标检测模型;所述目标检测模型包括主干特征提取网络、特征融合模块和输出模块;且主干提取网络中的下采样模块由可变形卷积单元和Focus单元组成;特征融合模块的下采样模块由预设步距的卷积单元和Focus单元组成;步骤2:训练目标检测模型;步骤3:由训练后的目标检测模型进行场景目标检测;其中,由主干特征提取网络提取待检测场景图像的特征;由特征融合模块输出不同尺度的特征图;并由输出模块基于特征图输出目标检测特征图。2.根据权利要求1所述的一种基于YOLOv5的城市街道场景目标检测方法,其特征在于,所述预设步距的卷积单元为步距为1的卷积单元。3.根据权利要求1所述的一种基于YOLOv5的城市街道场景目标检测方法,其特征在于,所述主干提取网络和特征融合模块中均包括C3单元、可变形卷积单元、Focus单元和SPPF单元。4.根...

【专利技术属性】
技术研发人员:张元陈斌杨浩
申请(专利权)人:哈尔滨工业大学深圳
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1