一种用于遥感领域的旋转目标检测方法技术

技术编号:38055722 阅读:13 留言:0更新日期:2023-06-30 11:21
本发明专利技术公开了一种用于遥感领域的旋转目标检测方法,属于图像处理领域;具体包括:首先,获取遥感图像数据集,进行图像的滑动切分得到图像中每个目标的位置标签框信息;然后,构建旋转目标检测网络,在网络检测模块中将以往的单独预测参数转化为预测sin2θ和cos2两个参数;从交并比损失和角度回归损失两个方面改进网络损失函数;最后,利用深度学习网络进行目标检测,输出推理结果并进行反解;整合反解出网络的预测值,通过极大值抑制处理,在待检测图像中画出最终的预测框。本发明专利技术优化网络的回归损失函数的同时,有效地提升了网络的检测精度。测精度。测精度。

【技术实现步骤摘要】
一种用于遥感领域的旋转目标检测方法


[0001]本专利技术属于图像处理
,涉及遥感目标检测,具体涉及一种用于遥感领域的旋转目标检测方法。

技术介绍

[0002]目标检测在遥感图像处理中是一个基础且重要的研究领域,主要研究内容是判别图像中目标类别并标识目标位置,其在军事作战、智能交通和智慧城市等领域具有广泛应用。遥感图像采用航拍或卫星拍摄,往往以俯视角度对地面目标进行拍摄,因此目标通常不会沿水平或垂直方向整齐排列,而是呈任意方向排列,这种现象在具有大长宽比的目标(舰船、桥梁等)中十分普遍。
[0003]近几年,随着深度学习技术的兴起,目标检测技术取得了质的飞跃,较有代表性的方法是基于Anchor Base的单阶段目标检测算法SSD和YOLO系列及双阶段目标检测算法FasterRcnn;还有基于Anchor Free的方法,比如CornerNet、CenterNet等。这些方法大都基于水平框(horizontal bounding box,HBB)的检测方式实现,针对遥感图像中呈不同角度倾斜排布的目标,其推理得到的目标框不能有效表征目标的方向性,冗余信息较多。
[0004]随着目标检测技术与遥感领域的不断融合发展,更适合遥感场景的旋转目标检测网络应运而生。常见表示形式包括五参数法和八参数法,五参数法采用(x,y,w,h,θ)来表示一个目标框,其中x,y表示旋转框的中心点坐标,w,h表示旋转框的宽和高,θ表示旋转框的角度值。八参数法采用(x1,y1,x2,y2,x3,y3,x4,y4)即旋转框的四个角点坐标值来表示一个旋转框。五参数法的角度定义包括Opencv定义法(0
°
~90
°
)和长边定义法(

90
°
~90
°
),由于数学上目标角度具有周期性,而网络中定义的角度是片段性的,导致处于角度值边界的目标框在网络训练过程中回归难度很大,检测效果差。八参数法由于预测参数较多,网络训练难度增大,导致网络预测精度不足。

技术实现思路

[0005]针对现有技术的不足,本专利技术提供一种用于遥感领域的旋转目标检测方法,该方法采用(x,y,w,h,sin2θ,cos2θ)来描述一个旋转框,并改进网络训练的损失函数,进而提升网络的训练效率和最终性能。
[0006]本专利技术提出了一种用于遥感领域的旋转目标检测方法,具体包括如下步骤:
[0007]步骤一,获取遥感图像数据集,对每张高分辨率遥感图像进行滑动分割,得到分割后各图像中每个目标的位置标签框信息;
[0008]每个目标的位置标签框以(x,y,w,h,sin2θ,cos2θ)的形式表示;
[0009]其中x,y表示标签框的中心点坐标,w,h表示标签框的宽和高,θ表示标签框的角度值;
[0010]步骤二,构建旋转目标检测网络,并输入分割后的遥感图像,对每个目标框进行预测,得到与标签框相同形式的预测框;
[0011]该网络具体为:
[0012]首先,将分割后的遥感图像依次输入卷积残差神经网络,获取不同尺度的特征图;
[0013]然后,利用特征金字塔结构对不同尺度的特征图进行融合;
[0014]最后,将融合后的特征图输入检测模块,输出当前遥感图像中每个目标的预测框;
[0015]其中,每个目标的预测框用(x,y,w,h,sin2θ,cos2θ)表示;
[0016]步骤三,从交并比损失和角度回归损失两个方面进行网络损失函数的优化,并用于旋转目标检测网络的训练;
[0017]具体来说,回归损失函数形式如下:
[0018][0019]其中,表示标签框和预测框两个对应的中心点间距离的惩罚项,中心点离得越远该惩罚项越大;表示标签框和预测框宽高参数的差异性,差异越明显该惩罚项的值越大;表示标签框和预测框的交并比,交并比越小该惩罚项越大。表示标签框和预测框间的角度差异,角度差异越大该惩罚项越大。
[0020]计算公式如下:
[0021][0022]式中,c
gt
表示标签框的中心点,c
pred
表示预测框的中心点,ρ(c
gt

c
pred
)表示标签框和预测框中心点间的距离,ρ
diagonal
表示同时包含标签框与预测框最小外接矩形的对角线距离;其中ρ
diagonal
的计算不参与梯度的更新。
[0023]计算公式如下:
[0024][0025][0026][0027]式中表示关注预测框的形状比例;表示关注预测框的形状参数;ε表示预测框与标签框间形状比例相似程度的惩罚因子;ω表示预测框与标签框间形状参数相似程度的惩罚因子;w
gt
,h
gt
表示标签框的宽,高;w
pred
,h
pred
表示预测框的宽,高;RIoU表示标签框与预测框的旋转交并比;其中a,b为不参与梯度更新的系数。
[0028]计算公式如下:
[0029][0030]计算公式如下:
[0031][0032]其中,θ
gt
表示目标框的角度标签值,θ
pred
表示网络预测的目标框角度值。
[0033]步骤四,利用训练后的旋转目标检测网络,对分割的遥感图像进行推理得到参数sin2θ,cos2θ,并反解角度θ;
[0034]由于arcsinθ的值域为arccosθ的值域为[0,π]。
[0035]因此,对sin2θ进行反解得到:
[0036][0037][0038]其中,α
sin
表示为python中的反正弦变换函数在输入为2θ
sin
反解的输出值。
[0039]对cos2θ进行反解得到:
[0040]2θ
cos
=α
cos or

α
cos
[0041][0042]其中,α
cos
表示python中的反余弦变换函数在输入为2θ
cos
反解的输出值。
[0043]将sin2θ反解得到的值β1,β2和cos2θ反解得到的值γ1,γ2从中各选一个进行组合,从四种组合{(β1,γ1),(β1,γ2),(β2,γ1),(β2,γ2)}选取相差最小的一组,令其为(β,γ)则反解出的角度θ,计算为:
[0044][0045]步骤五,整合反解出的角度θ,中心点x,y,以及宽,高w,h;通过极大值抑制处理,在图像中画出最终的预测框。
[0046]本专利技术的优点在于:
[0047](1)一种用于遥感领域的旋转目标检测方法,解决了遥感旋转目标检测中,处于角度边界的目标框在网络训练过程中回归难度很大,检测效果差的问题,优化了检测网络结构,从以往单独预测θ参数转化为预测sin2θ和cos2θ两个参数。本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种用于遥感领域的旋转目标检测方法,其特征在于,具体包括如下步骤:首先,获取遥感图像数据集,对每张高分辨率遥感图像进行滑动分割,得到分割后各图像中每个目标的位置标签框信息;每个目标的位置标签框以(x,y,w,h,sin2θ,cos2θ)的形式表示;其中x,y表示标签框的中心点坐标,w,h表示标签框的宽和高,θ表示标签框的角度值;然后,构建旋转目标检测网络,并输入分割后的遥感图像,对每个目标框进行预测,得到与标签框相同形式的预测框;接着,从交并比损失和角度回归损失两个方面进行网络损失函数的优化,并用于旋转目标检测网络的训练;具体来说,回归损失函数形式如下:其中,表示标签框和预测框两个对应的中心点间距离的惩罚项,中心点离得越远该惩罚项越大;表示标签框和预测框宽高参数的差异性,差异越明显该惩罚项的值越大;表示标签框和预测框的交并比,交并比越小该惩罚项越大;表示标签框和预测框间的角度差异,角度差异越大该惩罚项越大;计算公式如下:式中,c
gt
表示标签框的中心点,c
pred
表示预测框的中心点,ρ(c
gt

c
pred
)表示标签框和预测框中心点间的距离,ρ
diagonal
表示同时包含标签框与预测框最小外接矩形的对角线距离;其中ρ
diagonal
的计算不参与梯度的更新;计算公式如下:计算公式如下:计算公式如下:式中表示关注预测框的形状比例;表示关注预测框的形状参数;ε表示预测框与标签框间形状比例相似程度的惩罚因子;ω表示预测框与标签框间形状参数相似程度的惩罚因子;w
gt
,h
gt
表示标签框的宽,高;w
pred
,h
pred
表示预测框的宽,高;RIoU表示标签框与预测框的旋转交并比;其中a,b为不参与梯度更新的系数;计算公式如下:
计算公式如下:其中,θ
gt
表示目标框的角度标签值,θ
pred
表示网络预测...

【专利技术属性】
技术研发人员:丁文锐张泽豪张航王玉峰
申请(专利权)人:北京航空航天大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1