一种面向无人机航拍密集小目标的检测方法技术

技术编号:39745097 阅读:11 留言:0更新日期:2023-12-17 23:44
本发明专利技术给出了一种面向无人机航拍密集小目标的检测方法

【技术实现步骤摘要】
一种面向无人机航拍密集小目标的检测方法



[0001]本专利技术涉及图像处理技术,具体来讲,涉及一种面向无人机航拍密集小目标的检测方法,该方法结合多尺度特征融合和基于
Wasserstein
距离的度量方式,引入多头注意力机制
MHSA
,构建鲁棒的小目标检测网络

技术背景

[0002]无人机具有运行成本低

机动性高

便于携带

多视角

体积小等优点,它可以弥补遥感卫星信息获取的不足,随着低空领域的逐步开放以及无人机研发技术的不断发展,无人机目标检测技术也日益成为国内外专家学者的研究热点

[0003]目标检测技术是指在得到的图片和视频中,将感兴趣的目标与背景区分开,识别需要的目标种类和目标所在的位置

早期的目标检测方法是利用人工设计特征无法很好地捕捉到抽象的语义特征,只能识别单一的指定类别,导致识别效率不高且检测性能低下

由于航拍图像具有比日常图像更为复杂的场景和目标,这对于传统的目标检测方法来说更加不利,并不能满足航拍图像目标检测的需求

同时,航拍图像往往伴随着庞大的数据量,且检测通常需要实时性,这对于检测方法的要求更加严格

近年来,随着深度学习的快速发展,利于卷积神经网络进行图像处理相比于传统方法,检测性能得到了巨大的提升,其算法主要分为两种类别,分别为单阶段与两阶段算法,两阶段算法主要基于区域检测的基本思想,将检测过程分为两个步骤,首先通过选择性搜索

边缘检测

区域提取网络等方法生成可能包含目标的候选区域做特征提取;然后,利用卷积神经网络对候选框位置进行分类与位置回归

目前的两阶段算法普遍误检率和漏检率都比较低,检测效果比较好,但是需要进行多重检测和分类,检测速度比较慢,两阶段算法包括
R

CNN、Fast R

CNN、Faster R

CNN、Mask R

CNN、SPP

Net。
而单阶段检测器与两阶段不同,不需要提前生成多个候选区域,可以直接得到检验框,因此单阶段算法通常检测速度很快,但是检测效果较低,如
SSD、YOLO
列等

[0004]目前的目标检测算法在针对无人机航拍图像的目标检测还存在以下难题:
1)
目标尺度变化大,对算法的特征融合要求高;
2)
目标尺寸小,分布密集,背景复杂,小目标的特征提取与下采样之间存在矛盾,增加检测难度;
3)
基于
YOLO
的算法模型参数量大,计算复杂


技术实现思路


[0005]本专利技术的目的在于解决由于无人机航拍图像中目标数量多且小目标占比大造成的目标检测准确率低和漏检率高的问题,提供不同时间

不同天气条件

不同光照条件下的航拍图像,设计算法网络模型,通过深度神经网络训练得到模型进行目标检测,由此解决无人机航拍情况下小目标检测问题,提高小目标检测的准确率,降低小目标检测的漏检率

[0006]为了实现上述目的,本专利技术提供了一种基于
YOLOv7
网络的无人机航拍目标检测模型,该方法以
YOLOv7
为主干网络,降低了下采样倍率,并引入了多头注意力机制
(MHSA)
,使模型更关注于目标特征信息,在计算回归损失时引入
Normalized Wasserstein Distance
(
简称
NWD)
损失函数,弥补了对小目标检测的不足,其包括三个部分:第一部分是对数据集进行预处理,第二部分是构建改进
YOLOv7
网络,第三部分是网络训练与测试,输出最佳航拍数据集检测结果

[0007]第一部分包括三个步骤:
[0008]步骤1:采用无人机航拍公开数据集
VisDrone
,划分训练集

验证集和测试集;
[0009]步骤2:将得到的数据集图片调整为
640
×
640
像素,通过
Mosaic
数据增强对每张训练图片进行随机翻转

缩放

色域变换等操作进行数据增强,并通过图片拼接的方式将四张图片拼接,得到最终的数据集;
[0010]步骤3:针对步骤2得到的数据集,对其边框进行
K

means++
聚类,得到新的锚框大小,并将结果与原始设定锚框进行对比,计算匹配的准确率,选取最佳的锚框大小设定;
[0011]第二部分包括三个步骤:
[0012]步骤4:建立轻量化主干特征提取网络
CSPDarknet

tiny。
在原始
YOLOv7
的主干网络上减少了下采样倍率,由
32
倍下采样减少为
16
倍下采样,输出的特征图包括
160
×
160
×
256
的特征图
map1、80
×
80
×
512
特征图
map2

40
×
40
×
512
特征图
map3

[0013]步骤5:将步骤4得到的特征图
map3
使用
SPPCSPC
处理,得到
40
×
40
×
256
的特征图
P1

[0014]步骤6:建立特征融合网络

在颈部的特征提取网络中,保留了
YOLOv7
的路径融合网络,将不同的特征层和检测层进行融合,
FPN
上采样传达语义特征,
PAN
下采样传达定位特征,具体实施如下:
[0015](1)
将步骤5得到的
P1
,传入深层特征提取模块
C3MS

C3MS
是在
C3
的基础上引入多头注意力机制
MHSA
,能有效地加强网络的特征提取能力,得到特征图
P2

[0016](2)
将步骤4得到的
map1、map2、P2
通过自顶向下和自下而上路径进行融合,输出最终特征图
P3、P4、P5

[0017]第三部分包括四个步骤:
[0018]本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.
一种面向无人机航拍密集小目标的检测方法,其特征在于,基于
YOLOv7
进行改进,结合无人机航拍图像中的目标特点,建立轻量化主干特征提取网络,融合多头注意力机制
MHSA
,引入
NWD Loss
,具体包括对数据集进行预处理

构建改进
YOLOv7
网络

网络训练与测试三个部分:第一部分包括三个步骤:步骤1:采用无人机航拍公开数据集
VisDrone
,划分训练集

验证集和测试集;步骤2:将得到的数据集图片调整为
640
×
640
像素,通过
Mosaic
数据增强对每张训练图片进行随机翻转

缩放

色域变换操作进行数据增强,并通过图片拼接的方式将四张图片拼接,得到最终的数据集;步骤3:针对步骤2得到的数据集,对其边框进行
K

means++
聚类,得到新的锚框大小,并将结果与原始设定锚框进行对比,计算匹配的准确率,选取最佳的锚框大小设定;第二部分包括三个步骤:步骤4:建立轻量化主干特征提取网络
CSPDarknet

tiny。
在原始
YOLOv7
的主干网络上减少了下采样倍率,由
32
倍下采样减少为
16
倍下采样,输出的特征图包括
160
×
160
×
256
的特征图
map1、80
×
80
×
512
特征图
map2

40
×
40
×
512
特征图
map3
;步骤5:将步骤4得到的特征图
map3
使用
SPPCSPC
处理,得到
40
×
40
×
256
的特征图
P1
;步骤6:建立特征融合网络

在颈部的特征提取网络中,保留了
YOLOv7
的路径融合网络,将不同的特征层和检测层进行融合,
FPN
上采样传达语义特征,
PAN
下采样传达定位特征,具体实施如下:将步骤5得到的
P1
,传入深层特征提取模块
C3MS

C3MS
是在
C3
的基础上引入多头注意力机制
MHSA
,能有效地加强网络的特征提取能力,得到特征图
P2
;将步骤4得到的
map1、map2、P2
通过自顶向下和自下而上路径进行融合,输出最终特征图
P3、P4、P5
;第三部分包括四个步骤:...

【专利技术属性】
技术研发人员:张红英蒲俊涛袁明东黄语涵曾静超曾芸芸杨靖儒
申请(专利权)人:西南科技大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1