一种基于遥感场景分类的目标检测方法技术

技术编号:28470283 阅读:19 留言:0更新日期:2021-05-15 21:37
本发明专利技术涉及一种基于遥感场景分类的目标检测方法,包括:S1,将待检测遥感影像输入训练完成的目标检测模型,获得对应地物目标的检测框以及置信度;S2,初步筛选:删除置信度低于阈值的检测框;S3,制作检测框对应的局部遥感影像:局部遥感影像包括检测框内影像及其周边背景影像;S4,将局部遥感影像输入训练完成的遥感场景分类模型,获得类别置信度;S5,根据S4获得的类别置信度对检测框进行二次筛选,获得检测结果。本发明专利技术结合目标检测结果的检测框内信息及其周边的场景信息,进行遥感场景分类计算,再根据遥感场景分类模型反馈的类别置信度来对目标检测获得的检测框进行筛选,可解决大量错检问题,大大提高目标的检测精度。大大提高目标的检测精度。大大提高目标的检测精度。

【技术实现步骤摘要】
一种基于遥感场景分类的目标检测方法


[0001]本专利技术涉及遥感影像处理
,尤其涉及一种基于遥感场景分类的目标检测方法。

技术介绍

[0002]最早期的目标检测主要是模板匹配技术的模型和基于简单结构的模型,能够处理一些空间位置关系较为简单的物体。之后的主流方法经历了基于几何表示的方法和基于外观特征的统计分类方法,例如神经网络、SVM以及Adaboost等。
[0003]20世纪90年代之后,目标检测有了突破性的进展,两个里程碑分别是尺度不变特征转换算法和深度卷积神经网络,前者革新了传统方法,后者则引领了深度学习的热潮。从SIFT算法开始,局部特征描述符受到了研究者的青睐,此后出现了许多相关的工作,例如Haar

like特征及梯度直方图等。这些局部特征通常会经过简单的级联或者特征池编码器集成,例如空间金字塔匹配及Fisher矢量等。之后提出的DPMs模型达到了传统目标检测的巅峰。虽然传统方法取得了不错的检测效果,但是往往设计得较为复杂,且缺乏提取图像高层次语义特征的能力,这限制了模型的检测精度。
[0004]近年来,随着深度学习的快速发展,其在自然场景的图像分类和检测领域获得了巨大的成功,与自然影像相比,遥感影像背景复杂,尺寸大,包含的对象数量多,同一类别的待检测目标尺寸差异大;另外还受到光照角度、拍摄角度、天气等因素影响;在实际应用中,对检测速度要求也较高,这使得在计算机视觉中的深度学习方法不能直接应用于遥感影像领域。
[0005]目前主流的遥感影像目标检测方法大多用于解决简单的检测问题,面对复杂背景的遥感影像,会产生大量的错检,因而生成的结果一般。

技术实现思路

[0006]本专利技术为了解决上述技术问题提供一种基于遥感场景分类的目标检测方法。
[0007]本专利技术通过下述技术方案实现:一种基于遥感场景分类的目标检测方法,包括以下步骤:S1,将待检测遥感影像输入训练完成的目标检测模型,获得与所述待检测遥感影像中的地物目标相对应的检测框以及检测框内地物目标存在的置信度;S2,初步筛选:删除S1获得的检测框中置信度低于阈值的检测框;S3,制作S2获得的检测框对应的局部遥感影像:局部遥感影像包括检测框内影像及其周边背景影像;S4,将所述局部遥感影像输入训练完成的遥感场景分类模型,获得在遥感场景下地物目标存在的类别置信度;S5,根据S4获得的类别置信度对S2获得的检测框进行二次筛选,获得所述待检测遥感影像的地物目标检测结果。
[0008]进一步的,所述S2还包括:对检测框进行非极大值抑制处理,删除重叠较大的检测框。
[0009]进一步的,所述目标检测模型的训练方法包括:A1、准备目标地物数据集,并将其划分为训练集、验证集和测试集;A2、用A1获得的数据集对基于深度学习的目标检测模型进行迭代训练,获得训练完成的目标检测模型。
[0010]进一步的,所述遥感场景分类模型的训练方法包括:B1、制作样本:在目标检测数据集的基础上,在检测框的周边自动裁剪一定大小的遥感影像切片,获得遥感影像切片组成的样本库:B2、将B1获得的样本库划分为训练集、验证集和测试集;B3、用B2获得的数据集对遥感场景分类模型进行迭代训练,获得遥感场景分类模型;B4、用B3获得的遥感场景分类模型对测试集进行预测,获取错提的检测框;B5、获取错提的检测框对应的遥感影像切片,并将其以负样本的形式更新到样本库中;B6、将目前的最优模型作为遥感场景分类模型初始化参数,将B5获取的更新后的样本库用于当前遥感场景分类模型的迭代训练,当迭代完成后,自动保存最优模型;重复B4~B6,直至满足精度要求,继而获得训练完成的遥感场景分类模型。
[0011]与现有技术相比,本专利技术具有以下有益效果:本专利技术结合目标检测结果的检测框内信息及其周边的场景信息,进行遥感场景分类计算,再根据遥感场景分类模型反馈的类别置信度来对目标检测获得的检测框进行筛选,可解决检测复杂背景的遥感影像出现大量错检问题,大大提高目标的检测精度。
附图说明
[0012]此处所说明的附图用来提供对本专利技术实施例的进一步理解,构成本申请的一部分,并不构成对本专利技术实施例的限定。
[0013]图1是本专利技术的流程图;图2是目标检测网络的模型训练过程示意图;图3是局部遥感影像生成示意图;图4是遥感场景分类网络的模型训练过程示意图;图5实施例2中羊圈的遥感影像图;图6是误提的检测框的示意图,其中(a)是浅云的示意图,(b)是山包背光位置的示意图,(c)是农田中裸地的示意图,(d)是村民家中庭院的示意图;图7是实施例2中采用本专利技术方法在作业区域内提的羊圈示意图;图8是图7的局部放大图。
具体实施方式
[0014]为使本专利技术的目的、技术方案和优点更加清楚明白,下面结合实施例和附图,对本专利技术作进一步的详细说明,本专利技术的示意性实施方式及其说明仅用于解释本专利技术,并不作
为对本专利技术的限定。
[0015]如图1所示,本专利技术公开的基于遥感场景分类的目标检测方法,包括以下步骤:S1,将待检测遥感影像输入训练完成的目标检测模型,获得与所述待检测遥感影像中的地物目标相对应的检测框以及检测框内地物目标存在的置信度;S2,初步筛选:删除S1获得的检测框中置信度低于阈值的检测框;S3,制作S2获得的检测框对应的局部遥感影像:局部遥感影像包括检测框内影像及其周边背景影像;S4,将所述局部遥感影像输入训练完成的遥感场景分类模型,获得在遥感场景下地物目标存在的类别置信度;S5,根据S4获得的类别置信度对S2获得的检测框进行二次筛选,获得所述待检测遥感影像的地物目标检测结果。
[0016]本专利技术考虑了遥感影像目标地类周边的语义信息,从而减少在测试大范围遥感影像时的错检数量,提高了复杂背景下遥感影像的检测精度。
[0017]基于上述目标检测方法,本专利技术公开两个实施例。
[0018]实施例1本实施例主要由目标检测和遥感场景分类两个阶段构成。
[0019]A、目标检测阶段:用于获取待检测遥感影像的初步检测结果。步骤如下:A1:获取目标检测模型。如图2所示,具体步骤包括:A1.1:准备目标地类样本集,并将其划分为训练集、验证集和测试集;可根据需要对训练集进行数据增广,以增强训练集的多样性;A1.2:搭建目标检测模型,目标检测模型可为任意基于深度学习的目标检测模型;用A1.1获得的数据集对其进行迭代训练,当迭代完成后,自动保存最优模型;A2:用A1.2获得的目标检测模型对待检测遥感影像进行预测,获得与地物目标相对应的检测框以及检测框内地物目标存在的置信度;A3:先删除置信度低于阈值的检测框,再通过非极大值抑制操作,去除大量重复框,获得初步目标检测结果。
[0020]B、遥感场景分类阶段:用于获得对目标检测阶段获取的检测框的类别置信度。包括以下步骤:B1:获取遥感场景分类模型。如图4所示,具体步骤包括:B1.1:制作样本:在A1.1获得的目标地类样本集的基础上,在所绘检测框的周边自动裁剪一定大小的遥感影像正方形切片,获本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于遥感场景分类的目标检测方法,其特征在于:包括以下步骤:S1,将待检测遥感影像输入训练完成的目标检测模型,获得与所述待检测遥感影像中的地物目标相对应的检测框以及检测框内地物目标存在的置信度;S2,初步筛选:删除S1获得的检测框中置信度低于阈值的检测框;S3,制作S2获得的检测框对应的局部遥感影像:局部遥感影像包括检测框内影像及其周边背景影像;S4,将所述局部遥感影像输入训练完成的遥感场景分类模型,获得在遥感场景下地物目标存在的类别置信度;S5,根据S4获得的类别置信度对S2获得的检测框进行二次筛选,获得所述待检测遥感影像的地物目标检测结果。2.根据权利要求1所述的基于遥感场景分类的目标检测方法,其特征在于:所述S2还包括:对检测框进行非极大值抑制处理,删除重叠较大的检测框。3.根据权利要求1所述的基于遥感场景分类的目标检测方法,其特征在于:所述目标检测模型的训练方法包括:A1、准备目标地物数据集,并将其划分为训练集、验证集...

【专利技术属性】
技术研发人员:杨鹏魏春山周楠李俊刚卢文静余娟娟
申请(专利权)人:苏州喆鑫信息科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1