System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 一种基于道路语义信息引导空间注意力的车辆检测方法技术_技高网

一种基于道路语义信息引导空间注意力的车辆检测方法技术

技术编号:40952941 阅读:3 留言:0更新日期:2024-04-18 20:28
本发明专利技术公开了一种基于道路语义信息引导空间注意力的车辆检测方法,包括,构建无人机道路车辆数据集,构建并训练GA‑YOLO车辆目标检测模型,包括目标检测分支及语义信息分支,获取目标检测分支主干网络最后一层通道特征权重和注意力分布图,计算通道注意力损失及语义特征损失,并与目标检测分支的分类损失、置信度损失、边界框损失作为总损失监督训练GA‑YOLO车辆目标检测模型,实现道路语义信息引导车辆检测模型的空间注意力;推理GA‑YOLO车辆目标检测模型,将待检测视频帧或图像,输入目标检测分支,获得预测边界框。本发明专利技术能够进一步提升无人机航拍图像车辆小目标检测准确性,保持较高的推理效率。

【技术实现步骤摘要】

本专利技术涉及计算机目标检测领域,特别涉及一种基于道路语义信息引导空间注意力的车辆检测方法


技术介绍

1、交通目标检测是计算机视觉领域中的一个重要任务,及时检测出交通场景中的车辆等目标,有助于预防交通事故,减少伤亡和财产损失,在城市规划、交通管理和交通安全方面发挥着重要作用。

2、与传统的固定式监控摄像头相比,基于无人机的监控系统具有维护成本低、易于部署、机动性高、视野广等优点。无人机的高移动性使其能够不受地域限制地灵活收集视频数据,当检测不同路段上的车辆时,无人机可以通过调整其飞行高度和位置来有效避免遮挡,而无需干预道路交通。此外,将目标检测算法集成到无人机中,可以更准确地从高空角度检测目标的位置,降低安装和维护的人工成本,提高交通监管的智能化水平。因此,目标检测和跟踪已进入大规模无人机时代,在智慧城市、交通监测及灾害监测等任务中发挥了越来越重要的作用。

3、无人机在交通系统中的普遍应用促进了用于收集实时交通信息的无人机目标检测方法的发展。然而,由于空中视角下车辆目标体积小、密度高,无人机图像中的车辆检测面临了许多挑战,主要存在如下问题:

4、(1)宽视野与小目标存在固有矛盾,为采集更大范围、更多车辆,无人机图像中车辆目标通常较小,对算法的小目标检测能力要求较高;

5、(2)无人机图像中场景复杂,由非道路背景噪声造成的目标漏检与误检极大影响目标检测准确性;

6、(3)小目标检测准确性与算法效率难以平衡,在保持和提升精度的同时尽可能少增加算法复杂度存在挑战。

<br/>

技术实现思路

1、为了克服现有技术在无人机交通检测中的缺点和不足,本专利技术发挥无人机的优势,提供一种基于道路语义信息引导空间注意力的车辆检测方法,解决无人机航拍视频和图像中车辆小目标检测模型在提取全局特征时由非道路背景噪声造成的目标误检、漏检影响,导致车辆检测准确性降低的问题。本专利技术提出的方法能够提高无人机航拍车辆小目标检测的准确性,保持较高的推理效率,同时在保持精度的前提下极大提高模型的可解释性,对于理解黑盒模型输出、指导网络改进具有重要意义。

2、为了解决上述技术问题,本专利技术采用如下技术方案:

3、一种基于道路语义信息引导空间注意力的车辆检测方法,包括:

4、构建无人机道路车辆数据集,具体:使用无人机悬停采集道路交通场景视频,标注车辆矩形边界框与道路区域掩膜,用于划分训练集和验证集;

5、构建ga-yolo车辆目标检测模型,具体包括:

6、用于提取图像深度特征并预测目标边界框和类别的目标检测分支,包括依次连接的主干网络、senet通道注意力模块、颈部网络及目标检测头;

7、用于生成交通场景中的道路语义标签,监督网络训练特征注意力聚焦道路区域的语义信息分支;

8、训练ga-yolo车辆目标检测模型,具体:基于grad-cam模块获取目标分支主干网络中最后一层通道特征权重和注意力分布图,分别与senet通道注意力模块及道路语义标签计算得到通道注意力损失及语义特征损失,并与目标检测分支的分类损失、置信度损失、边界框损失作为总损失监督训练ga-yolo车辆目标检测模型;

9、推理ga-yolo车辆目标检测模型,将待检测视频帧或图像,输入训练后的ga-yolo车辆目标检测模型中的目标检测分支,获得预测边界框,输出目标预测边界框及所属类别,实现交通场景车辆小目标检测。

10、进一步,所述目标检测分支以yolov5网络为基础,包括:

11、主干网络:具体是csp-darknet53,将数据集输入主干网络,经过五个cbs卷积层和四个c3模块,得到多个不同尺寸的特征图;

12、senet通道注意力模块,利用全局平均池化对各通道特征图信息聚合计算为一个标量,再通过两个全连接层,将该标量映射为一个新的权重标量,并利用该标量对各通道特征图加权,增强通道间的表达能力,包括squeeze操作与excitation操作;

13、颈部网络:由空间金字塔池化sppf模块、fpn和pan特征金字塔模块依次拼接构成;

14、目标检测头:对颈部网络输出的特征图进行目标检测,输出预测框及类别。

15、进一步,还包括grad-cam模块,用于获取主干网络中特征图通道的特征权重和注意力分布图。

16、进一步,语义信息分支是基于pidnet深度学习网络构建,原始图像输入pidnet深度学习网络得到对应交通场景道路语义标签结果,作为监督信号引导空间特征注意力。

17、进一步,pidnet深度学习网络包括三个分支,具体是解析并保存高分辨率特征图中细节信息的比例分支即p分支,聚合高级语义信息的积分通道即i分支以及预测边界信息的微分通道即d分支。

18、进一步,采用grad-cam模块获取主干网络中特征图通道的特征权重和注意力分布图,具体为:

19、grad-cam模块定义输出值为目标检测分支主干网络最后一层特征图梯度的平均值为特征图的权重;

20、grad-cam模块通过对加权后的特征图应用relu激活函数,消除激活图中与目标类别无关的信号干扰,过滤与道路前景不相关的背景;

21、基于特征图梯度平均值计算的权重对目标检测分支主干网络最后一层原特征图进行加权求和,生成类激活的注意力分布图。

22、进一步,ga-yolo车辆目标检测模型训练使用五种损失函数进行训练,具体为:

23、注意力损失:用于通道注意力自监督策略,由senet模块squeeze操作生成的1×1×c特征图权重张量与经grad-cam模型反向传播至主干网络最后一层的特征梯度gap计算输出的特征图权重计算注意力损失,引入kl散度作为损失函数;

24、语义特征损失:用于引导目标检测分支空间注意力聚焦于场景道路区域,由pidnet网络生成的道路语义标签图与经grad-cam模块反向传播至主干网络最后一层的注意力分布图计算语义特征损失,引入二元交叉熵作为语义特征损失函数;

25、目标检测分支的分类损失:用于判断模型是否能够准确地将目标分类到正确的类别中;

26、目标检测分支的置信度损失:用于衡量模型预测的边界框与真实框的差异;

27、目标检测分支的边界框损失:用于衡量模型预测的边界框与真实边界框之间的差异。

28、进一步,所述目标检测模型训练目标检测分类损失和置信度损失均是基于二元交叉熵损失函数计算,边界框损失使用ciou损失函数计算。

29、进一步,在车辆目标检测阶段,使用目标检测分支获得预测边界框后,进行置信度阈值过滤和非大值抑制后,输出目标预测边界框及所属类别。

30、进一步,所述无人机挂载高清相机,悬停于道路上空,相机垂直于地面采集交通视频。

31、与现有技术相比,本专利技术具有以下优点和有益效果:

32、1、本专利技术提出一种本文档来自技高网...

【技术保护点】

1.一种基于道路语义信息引导空间注意力的车辆检测方法,其特征在于,包括:

2.根据权利要求1所述的车辆检测方法,其特征在于,所述目标检测分支以YOLOv5网络为基础,包括:

3.根据权利要求2所述的车辆检测方法,其特征在于,还包括Grad-CAM模块,用于获取主干网络中特征图通道的特征权重和注意力分布图。

4.根据权利要求1所述的车辆检测方法,其特征在于,语义信息分支是基于PIDNet深度学习网络构建,原始图像输入PIDNet深度学习网络得到对应交通场景道路语义标签结果,作为监督信号引导空间特征注意力。

5.根据权利要求4所述的车辆检测方法,其特征在于,PIDNet深度学习网络包括三个分支,具体是解析并保存高分辨率特征图中细节信息的比例分支即P分支,聚合高级语义信息的积分通道即I分支以及预测边界信息的微分通道即D分支。

6.根据权利要求3所述的车辆检测方法,其特征在于,采用Grad-CAM模块获取主干网络中特征图通道的特征权重和注意力分布图,具体为:

7.根据权利要求1所述的车辆检测方法,其特征在于,GA-YOLO车辆目标检测模型训练使用五种损失函数进行训练,具体为:

8.根据权利要求7所述的车辆检测方法,其特征在于,所述目标检测模型训练目标检测分类损失和置信度损失均是基于二元交叉熵损失函数计算,边界框损失基于CIOU损失函数计算。

9.根据权利要求1所述的车辆检测方法,其特征在于,在车辆目标检测阶段,使用目标检测分支获得预测边界框后,进行置信度阈值过滤和非大值抑制后,输出目标预测边界框及所属类别。

10.根据权利要求1-9任一项所述的车辆检测方法,其特征在于,所述无人机挂载高清相机,悬停于道路上空,相机垂直于地面采集交通视频。

...

【技术特征摘要】

1.一种基于道路语义信息引导空间注意力的车辆检测方法,其特征在于,包括:

2.根据权利要求1所述的车辆检测方法,其特征在于,所述目标检测分支以yolov5网络为基础,包括:

3.根据权利要求2所述的车辆检测方法,其特征在于,还包括grad-cam模块,用于获取主干网络中特征图通道的特征权重和注意力分布图。

4.根据权利要求1所述的车辆检测方法,其特征在于,语义信息分支是基于pidnet深度学习网络构建,原始图像输入pidnet深度学习网络得到对应交通场景道路语义标签结果,作为监督信号引导空间特征注意力。

5.根据权利要求4所述的车辆检测方法,其特征在于,pidnet深度学习网络包括三个分支,具体是解析并保存高分辨率特征图中细节信息的比例分支即p分支,聚合高级语义信息的积分通道即i分支以及预测边界信息的微分通道即d分支。

【专利技术属性】
技术研发人员:游峰杨家夏王海玮杨敬姗张思意梁浩辰谭云龙
申请(专利权)人:华南理工大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1