一种基于无人机遥感植物场景目标智能嵌套识别方法技术

技术编号:32833685 阅读:16 留言:0更新日期:2022-03-26 20:50
本发明专利技术公开了一种基于无人机遥感植物场景目标智能嵌套识别方法,该方法如下,S1、在无人机遥感影像中,依据植物样本目标与其周边一定范围内的类似植物组成场景目标,做为一整块地,并使用矩形方框作为标记进行标注,制作场景目标检测样本集CJSet,在场景范围内,依据实际植物矢量数据和场景内无人机数据制作植物语义分割样本集YYSet;S2、植物目标通常较少,需要对场景目标样本集CJSet和语义分割样本集YYSet进行对样本做几何空间、色彩空间增强处理,将样本集规模进行扩充步骤。针对复杂背景的无人机遥感数据自动判定植物所在的预定场景范围,再检测位于场景中的无人机影像的植物目标,获得较高的目标识别准确度。获得较高的目标识别准确度。获得较高的目标识别准确度。

【技术实现步骤摘要】
一种基于无人机遥感植物场景目标智能嵌套识别方法


[0001]本专利技术属于无人机遥感影像植物目标检测领域,具体涉及一种基于无人机遥感植物场景目标智能嵌套

智能识别方法,针对全国重点区域内无人机遥感数据中的目标识别中的各类干扰因素具有较强适应鲁棒性,具体分两步,首先识别植物所在的场景范围,然后再基于场景范围二次识别植物植物目标,形成智能识别嵌套策略,进而获得较高的目标识别准确度。

技术介绍

[0002]快速准确地获取植物的地理空间信息,可第一时间对其监控,具有重要意义。遥感数据具有覆盖面广、时效强,特别无人机遥感影像分辨率更高、数据获取更加灵活等优势,可在植物生长、发现与监测中发挥重要作用,利用遥感影像识别植物,特别是植物的遥感检测成为近几年的研究热点。
[0003]利用遥感影像识别植物目标属于遥感目标检测算法领域,在经过传统手工设计目标特征模式识别算法之后,基于深度学习的目标检测算法迅速崛起,并成功应用于遥感目标检测领域。深度学习目标检测算法通常以是否产生候选框分为单阶段(one

stage)和两阶段(two

stage)检测算法,最著名的单阶段的典型模型有SSD和YOLO系列算法,两阶段的典型模型有R

CNN系列算法(包括SPP

net、Fast R

CNN、Faster R

CNN),“单阶段”通常具有较高检测速度,而“两阶段”具有较高的检测精度。由于深度神经网络具有优秀的特征学习能力且不依赖人工主观设计,因此在遥感目标检测精度上有了很大的提升。
[0004]由于某种植物经常种在非常隐蔽的区域,而且经常和其他相似植物进行套种,所以在遥感影像上特征极不明显,虽然无人机影像具有较高的影像分辨率,但在生长阶段套种的植物和其他作物影像特征较为相似,特征目标受到较大冗余和干扰信息的影响,同谱异物和同物异谱现象更加明显,加大了大范围内遥感影像植物提取的难度。目前常用的植物目标检测算法均在小区域内进行,而且只采用一种深度学习目标检测框架,即使在1.5厘米的无人机影像中,使用两阶段精度最好的Faster R

CNN算法,也只能达到30%左右的识别精度。因此针对大范围内无人机遥感影像上植物的目标检测,需要更加有效的检测算法。

技术实现思路

[0005]为了克服以上技术问题,本专利技术的目的在于提供一种基于无人机遥感植物场景目标智能嵌套识别方法。本专利技术针对较大范围的无人机遥感影像,首先利用包含植物目标场景信息的无人机影像制作较大尺寸的样本实现Faster R

CNN模型训练,并初步检测出包含植物的场景范围;其次在场景范围内利用较小尺寸的样本训练深度语义分割模型,获取具体的植物的语义信息;最后将所有场景范围内的植物信息完成地理拼接,完成整幅影像中所有植物信息的提取。整体算法流程通过嵌套深度目标检测模型训练与场景内推演,解决无人机遥感植物目标检测中精度低、速度慢的问题。
[0006]本专利技术提供一种基于无人机遥感植物场景目标智能嵌套识别方法,包括如下步
骤,
[0007]S1、在无人机遥感影像中,依据植物样本目标与其周边一定范围内的类似植物组成场景目标,通常可以为一整块地,并使用矩形方框作为标记进行标注,制作场景目标检测样本集CJSet,同时在每个场景范围内,依据实际植物矢量数据和场景内无人机数据制作植物语义分割样本集YYSet;
[0008]S2、由于植物目标通常较少,所以需要对场景目标样本集CJSet和语义分割样本集YYSet执行随机性包含旋转、对称变换、仿射变换等几何变换和包含模糊、色彩、亮度、对比度、锐化、添加噪声等色彩空间增强处理,将样本集规模进行扩充;
[0009]S3、利用增强后的场景目标检测样本集CJSet训练基于Faster R

CNN的植物场景范围目标检测模型M
CJ
并推演,得到植物场景目标结果集CJOBJSet;
[0010]S4、对S3得到的CJOBJSet场景结果集进行空间矢量化,形成多个带有空间地理信息的矩形场景框数据集CJOBJRectSet;
[0011]S5、利用增强后语义分割样本集YYSet训练基于DLinkNet的植物语义分割模型M
YY
,并基于在S4中得到的CJOBJRectSet中,逐个遍历并推演每个场景框中所对应的无人遥感影像,进而获取每个场景范围内中的植物目标语义信息YYOBJSet
i
,其中i∈(1,Num
CJOBJSet
),Num
CJOBJSet
为CJOBJSet的个数。
[0012]S6、遍历每个场景范围内所有YYOBJSet
i
中的植物语义目标,计算其中植物语义多边形之间的交并比η
IOU
,如果η
IOU
>∈,则删除其中一个,否则均保留,其中∈为判定阈值,通常设置∈为0.5,直至完成一景影像中所有场景遍历,最终获得与遥感影像坐标系一致的植物矢量结果集YSOBJSet。
[0013]优选的,所述无人机影像均为真彩色波段组合模式。
[0014]优选的,所述步骤S2中的场景样本集中场景矩形框大小通常以影像特征均一的地物范围,样本图片大小为2000pi*2000pi,植物语义分割样本集中的遥感图片大小为256pi*256pi。
[0015]优选的,所述步骤S2中的样本增强算法分为两大方面,分别针对几何空间和色彩空间,其中几何空间中旋转变换原理为随机逆时针旋转且以15度为间隔对样本进行保留原尺寸旋转处理,则将360度切分24份,每次增强会随机选择其中一个角度进行增强处理,其计算公式如下:
[0016][0017]其中,A为待处理样本图片矩阵,α为旋转角度。
[0018]优选的,所述步骤S3中使用的Faster R

CNN的骨干特征提取网络为ResNet101,由于植物的场景范围较大,且大小不一,所以在RPN阶段生成候选框为5个尺度,分别为[64,128,256,512,1024],单位为像素值。
[0019]优选的,所述步骤S4中对S3得到的目标检测结果集CJOBJSet进行空间矢量化,得到一系列具有地理坐标信息的矢量矩形,文件类型以ESRI Shapefile(.shp)文件格式保存。
[0020]优选的,所述步骤S5中使用的DLinkNet的骨干特征提取网络为ResNet34,在每个场景矩形框内对无人机影像进行推演时,以256pi*256pi的大小范围进行遍历,为保证目标
完整性,并以128的步长进行移动,完成场景框内的完整影像范围的遍历推演。
[0021]优选的,所述步骤S6中的多边形交并比η
IOU
计算公式如下
[0022][0023]其中,P
A...

【技术保护点】

【技术特征摘要】
1.一种基于无人机遥感植物场景目标智能嵌套识别方法,其特征在于:该方法包括如下步骤,S1、在无人机遥感影像中,依据植物样本目标与其周边一定范围内的类似植物组成场景目标,将其为一整块地,并使用矩形方框对包含植物的场景目标进行标注,制作场景目标检测样本集CJSet;同时在每个场景范围内,依据实际植物矢量数据和场景内无人机数据制作植物语义分割样本集YYSet;S2、对场景目标样本集CJSet和语义分割样本集YYSet进行对样本做几何空间、色彩空间增强处理,将样本集规模进行扩充;S3、利用增强后的场景目标检测样本集CJSet训练基于Faster R

CNN的植物场景范围目标检测模型M
CJ
并推演,得到植物场景目标结果集CJOBJSet;S4、对S3得到的CJOBJSet场景结果集进行空间矢量化,形成多个带有空间地理信息的矩形场景框数据集CJOBJRectSet;S5、利用增强后语义分割样本集YYSet训练基于DLinkNet的植物语义分割模型M
YY
,并基于在S4中得到的CJOBJRectSet中,逐个遍历并推演每个场景框中所对应的无人遥感影像,进而获取每个场景范围内中的植物目标语义信息YYOBJSet
i
,其中i∈(1,Num
CJOBJSet
),Num
CJOBJSet
为CJOBJSet中场景目标的个数;S6、遍历每个场景范围内所有YYOBJSet
i
中的植物语义目标,计算其中植物语义多边形之间的交并比η
IOU
,如果η
IOU
>∈,则删除其中一个,否则均保留,其中,∈为判定阈值,直至完成一景影像中所有场景遍历,最终获得与遥感影像坐标系一致的植物矢量结果集YSOBJSet。2.根据权利要求1所述的无人机遥感植物场景目标智能嵌套识别方法,其特征在于:所述无人机影像均为真彩色波段组合模式。3.根据权利要求2所述的无人机遥感植物场景目标智能嵌套识别方法,其特征在于:场...

【专利技术属性】
技术研发人员:楚长力
申请(专利权)人:焱图慧云苏州信息科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1