一种利用旋转框表示的遥感目标检测方法技术

技术编号:32640262 阅读:77 留言:0更新日期:2022-03-12 18:16
本发明专利技术涉及一种利用旋转框表示的遥感目标检测方法,包括如下步骤:步骤1:对样本标签中给定的旋转框四个顶点,转换为水平竖直框及旋转参数的表示;步骤2:获取特征图;步骤3:在步骤2中获取的特征图上采样;步骤4:在步骤3获取的特征图上选取关键点,并构建目标分类、矩形框长宽回归及旋转角度回归三个网络分支;步骤5:融合目标分类、矩形框长宽回归两个子网络的特征,对旋转角度回归分支修正;步骤6:通过网络训练,获取目标分类、矩形框长宽回归及旋转角度回归结果;步骤7:结合步骤6的结果,利用几何变换,获得目标旋转框。本发明专利技术有效提高了回归的精度,进而提高了检测的准确度。进而提高了检测的准确度。进而提高了检测的准确度。

【技术实现步骤摘要】
一种利用旋转框表示的遥感目标检测方法


[0001]本专利技术涉及一种利用旋转框表示的遥感目标检测方法,属于目标检测与遥感图像处理


技术介绍

[0002]随着遥感图像分辨率和成像质量的逐渐提升,从高分辨率遥感图像中提取感兴趣的目标成为可能。利用基于卷积神经网络的深度学习技术通过对目标特征的自动提取,已经可以很好地检测遥感图像中目标。然而,目前主流技术大多数利用水平竖直矩形框表示目标,忽略了目标的角度。从另一方面来讲,遥感图像中目标在很多情况下呈紧密排布,利用水平竖直矩形框表示目标容易造成检测结果的重叠,且难以准确提取目标特征,使得表示目标位置、方位等信息带来困难。利用带有方向的旋转框,可利用遥感图像中的目标俯视条件下形状不变等特性,更准确地表示目标。
[0003]常见基于深度学习的目标检测方法主要分两种:1.多步检测器,即在特征提取主干网络提取的特征图上,借助锚框(Anchor)利用区域建议网络(Region Proposal Network,RPN)先将目标及背景区分开,再针对RPN的输出结果进行目标分类和回归;2.单步检测器,主要分基于锚框和非锚框两种,基于锚框的检测器利用锚框预测锚框在特征图上直接预测目标,然后再进行回归和分类;而基于非锚框的单步检测方法利用类似于关键点检测的方法,降采样后的特征图上直接对目标框的四个顶点进行预测,然后对目标进行分类并对顶点进行回归。
[0004]针对旋转框目标检测,基于锚框的方法在训练中,在RPN中设计多角度的锚框,利用多尺度、多角度锚框进行回归。而基于非锚框的方法,则直接对旋转框的四个顶点进行预测。
[0005]传统方法虽然可以获取目标的位置及角度信息,但忽略了目标类别、尺寸及角度之间的关系。而遥感图像中的目标介于其俯视的特性,具有尺寸不变等特征,此外,不同类别的目标在图像中的尺寸也不尽相同。合理尺寸、类别和角度之间的关系,可提升目标检测的准确度。

技术实现思路

[0006]本专利技术解决的技术问题是:克服现有技术的不足,提出一种利用旋转框表示的遥感目标检测方法,将标签中目标的旋转框利用水平竖直框和旋转参数表示,在分支网络中,利用注意力机制整合尺寸、类别和旋转参数三个分支,有效提高了回归的精度,进而提高了检测的准确度。
[0007]本专利技术解决技术的方案是:
[0008]一种利用旋转框表示的遥感目标检测方法,包括如下步骤:
[0009]步骤1:对样本标签中给定的旋转框四个顶点,通过几何变换的方式,转换为水平竖直框及旋转参数的表示;
[0010]步骤2:利用卷积神经网络作为特征提取主干网络,获取特征图;
[0011]步骤3:利用特征金字塔网络FPN在步骤2中获取的特征图上采样;
[0012]步骤4:在步骤3获取的特征图上选取关键点,并构建目标分类、矩形框长宽回归及旋转角度回归三个网络分支;
[0013]步骤5:融合目标分类、矩形框长宽回归两个子网络的特征,对旋转角度回归分支修正;
[0014]步骤6:通过网络训练,获取目标分类、矩形框长宽回归及旋转角度回归结果;
[0015]步骤7:结合步骤6的结果,利用几何变换,获得目标旋转框。
[0016]进一步的,步骤1按如下过程进行:
[0017]利用几何变换,将样本标签中的旋转框OBB转换为利用水平竖直框HBB及旋转参数(w,h)进行表示。
[0018]进一步的,步骤5按如下过程进行:
[0019]步骤(5.1)针对三个分支网络,进行空洞卷积,获取三个网络分支;
[0020]步骤(5.2)用1
×
1卷积将目标分类网络分支与HBB回归分支的融合,得到特征图Fm;
[0021]步骤(5.3)利用三个卷积层f(Fm),g(Fm),h(Fm)将Fm投影到三个空间,以此构建注意力机制网络结构;
[0022]步骤(5.4)构建注意力层Θ=(θ1,θ2,...θ
q
,...,θ
N
),为保留原始特征图防止梯度消失,利用凸函数权重融合注意力层特征及原特征,得到最终特征图:
[0023]Y=Θ+λF
m

[0024]进一步的,其中f(
·
)和g(
·
)利用softmax函数构建注意力特征图γ:
[0025]γ=softmax(f(F
m
)
T
g(F
m
))
[0026]h(
·
)用来获取原始的特征图。
[0027]进一步的,θ
q
的计算方式为:
[0028][0029]其中p和q代表f(F
m
)
T
g(F
m
)输出矩阵的行和列。
[0030]本专利技术与现有技术相比的有益效果是:
[0031](1)本专利技术利用单步检测框架的深度学习网络检测遥感图像中目标的位置、尺寸、角度及类别信息,并利用自注意力机制联合各检测网络分支,通过损失函数的设计及训练,获取高分辨率遥感图像中目标的位置、尺寸及角度信息,并用带有角度信息的旋转框表示目标,提高了遥感图像目标检测的精度,解决传统水平竖直框检测中目标密集排列等因素对检测器造成的干扰;
[0032](2)本专利技术将标签中目标的旋转框利用水平竖直框和旋转参数表示,在分支网络中,利用自注意力机制整合尺寸、类别和旋转参数三个分支,有效提高了回归的精度,进而提高了检测的准确度。
附图说明
[0033]图1是本专利技术方法流程图;
[0034]图2是旋转框与水平竖直框之间的几何变换示意图;
[0035]图3是注意力机制模型示意图。
具体实施方式
[0036]下面结合实施例对本专利技术作进一步阐述。
[0037]本专利技术所要决的问题是针对高分辨率遥感图像中目标检测的问题,具体针对旋转框目标检测,提出了一种利用水平竖直框和旋转参数表示旋转框的方法,使得网络框架可以实现利用单步非锚框流程实现旋转框的目标检测;基于此变换方法,本专利技术解决的另一个关键问题是旋转框目标检测中目标类别、尺寸及角度三个预测分支的关联问题,通过建立三个分支的关联模型,提升目标检测的准确度。
[0038]本专利技术的技术思路是:对给定的目标位置标签,先将标签中的旋转框四个顶点的表示方法转换为本专利中介绍的水平竖直框配合旋转参数的表示方法;在训练中,利用注意力机制,整合三个网络分支,构建预测模型,实现针对遥感图像的旋转框目标检测。为达到上述目的,具体实现步骤如下:
[0039]步骤1:对样本标签中给定的旋转框四个顶点,通过几何变换的方式,转换为水平竖直框及旋转参数的表示方法;
[0040]步骤2:利用卷积神经网络作为特征提取主干网络,获取特征图;
[0041]步骤3:利用FPN将步骤二中获取的特征图上采样;
[0042]步骤4:在步骤3获取的特本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种利用旋转框表示的遥感目标检测方法,其特征在于,包括如下步骤:步骤1:对样本标签中给定的旋转框四个顶点,通过几何变换的方式,转换为水平竖直框及旋转参数的表示;步骤2:利用卷积神经网络作为特征提取主干网络,获取特征图;步骤3:利用特征金字塔网络FPN在步骤2中获取的特征图上采样;步骤4:在步骤3获取的特征图上选取关键点,并构建目标分类、矩形框长宽回归及旋转角度回归三个网络分支;步骤5:融合目标分类、矩形框长宽回归两个子网络的特征,对旋转角度回归分支修正;步骤6:通过网络训练,获取目标分类、矩形框长宽回归及旋转角度回归结果;步骤7:结合步骤6的结果,利用几何变换,获得目标旋转框。2.根据权利要求1所述的一种利用旋转框表示的遥感目标检测方法,其特征在于,步骤1按如下过程进行:利用几何变换,将样本标签中的旋转框OBB转换为利用水平竖直框HBB及旋转参数(w,h)进行表示。3.根据权利要求2所述的一种利用旋转框表示的遥感目标检测方法,其特征在于,步骤5按如下过程进行:步骤(5.1)针对三个分支网络,进行空洞卷积,获取三个网络分支;步骤(5.2)用1
...

【专利技术属性】
技术研发人员:冯鹏铭贺广均常江刘世硕石慧峰杨志才符晗田路云
申请(专利权)人:航天恒星科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1