【技术实现步骤摘要】
基于时空深度学习融合技术的农作物全自动化分类方法
本专利技术属于卫星遥感图像处理与应用的
技术介绍
农作物分类信息的准确获取在预估产量、加强作物生产管理、农业保险与灾害评估等诸多方面中具有十分重要的科学与实践意义,近年来是遥感领域的研究热点之一。在诸多基于遥感影像的农作物分类算法中,深度学习方法被认为是一项突破性技术并以高效学习的特点在遥感农业识别领域掀起一阵热潮。近年来,国内外的研究学者提出了许多基于深度学习高分辨率遥感影像的作物分类方法。代表研究如下:不同于传统的机器学习分类方法,深度学习方法的引入对遥感影像的识别准确率有明显的提高,Zhong等人采用EVI时序序列与时序特征表征网络Conv1D进行基于像素点的大面积作物分类,获得的总体分类精度为85.54%,高于LSTM网络3.1%(参见ZhongL,HuL,ZhouH,"Deeplearningbasedmulti-temporalcropclassification,"RemoteSensingofEnvironment221:430-443(2019))。Castelluccio等人使用GoogLeNet和CaffeNet对农作物进行了分类,其准确度分别为91.83%和90.94%(参见CastelluccioM,PoggiG,SansoneC,"Landuseclassificationinremotesensingimagesbyconvolutionalneuralnetworks,"arXivpreprintarXiv:1508. ...
【技术保护点】
1.基于时空深度学习融合技术的农作物全自动化分类方法,其特征在于,该方法的步骤如下:/n步骤一、影像预处理:获取到的多时相高分辨率遥感影像是进行过几何精校正的正射影像,对该影像进行辐射定标与大气校正进而获取预处理之后的遥感影像;/n步骤二、从原始的多时相Sentinel-2影像中提取有用的信息源,所述的信息源为可变大气阻力指数VARIgreen、比值建筑用地指数RBI和短波红外SWIR;/n步骤三、对样本数据集进行提纯;/n步骤四、利用步骤三获得的影像块训练融合地理信息的Geo-3D CNN网络,获得第一种分类结果;/n步骤五、利用步骤三获得的影像块训练融合地理信息的Geo-Conv1D网络,获得第二种分类结果;/n步骤六、采用Active Learning策略实现两种分类结果的融合,得到最终分类。/n
【技术特征摘要】
1.基于时空深度学习融合技术的农作物全自动化分类方法,其特征在于,该方法的步骤如下:
步骤一、影像预处理:获取到的多时相高分辨率遥感影像是进行过几何精校正的正射影像,对该影像进行辐射定标与大气校正进而获取预处理之后的遥感影像;
步骤二、从原始的多时相Sentinel-2影像中提取有用的信息源,所述的信息源为可变大气阻力指数VARIgreen、比值建筑用地指数RBI和短波红外SWIR;
步骤三、对样本数据集进行提纯;
步骤四、利用步骤三获得的影像块训练融合地理信息的Geo-3DCNN网络,获得第一种分类结果;
步骤五、利用步骤三获得的影像块训练融合地理信息的Geo-Conv1D网络,获得第二种分类结果;
步骤六、采用ActiveLearning策略实现两种分类结果的融合,得到最终分类。
2.根据权利要求1所述的基于时空深度学习融合技术的农作物全自动化分类方法,其特征在于,步骤三对样本数据集进行提纯的步骤具体如下:
(a)从原始多时相遥感影像中提取信息源,利用OTSU分割算法对获取的信息源进行分割处理;
(b)根据分割结果在原始信息源上采用直方图统计的方法并根据设置的置信区间自动确定各类作物提取的阈值范围,进而获取粗训练样本;
(c)删除面积小于设定阈值的对象,去除小的异构点;
(d)去除各类样本的重叠区域;
(e)通过最优滑窗与最优影像块尺寸的设计挑选出的影像块和像素点纯净样本,
影像块训练样本最优滑窗选择结果:滑窗移动步长Stride=1,影像块大小与影像块样本滑窗尺寸之间遵循的关系如下:(s×b+P)×(s×b+P)=n×n(s=1,2,…,6;l=2,3,...,6;P=2);P=2代表在影像块样本周围扩充了一圈具有相同标签的数据,b×b代表影像块大小,s=1,2,3,…代表滑窗内部的样本数据被划分为s×s个大小为b×b的影像块,n×n代表挑选影像块样本的滑窗尺寸;
像素点训练样本最优滑窗选择结果:基于像素点的训练样本选择,根据实际情况设计滑窗大小m×m(m=6,7,…,14),保证滑窗内部的数据具有相同的标签,选择(m-1)×(m-1)大小的影像块制作像素点训练样本,为了保证像素点样本选择的不重复性,设计规则如下:
用(i,j)(i=1,2,…,(M-m+1);j=1,2,…,(N-m+1))表示输入影像某位置的横纵坐标,输入影像高度M,宽度N;
(a)如果i=1,j=1,提取(i+1:i+(m-1),j+1:j+(m-1))范围内的像素点样本;
(b)如果i=1,j≠1,提取(i+1:i+(m-1),j+(m-1))范围内的像素点样本;
(c)如果i≠1,j=1,提取(i+(m-1),j+1:j+(m-1))范围内的像素点样本;
(d)如果i≠1,j≠1,提取(i+(m-1),j+(m-1))位置的像素点样本。
3.根据权利要求1所述的基于时空深度学习融合技术的农作物全自动化分类方法,其特征在于,
Geo-3DCNN网络结构中包括输入层、卷积层、池化层、全连接层与输出层,具体结构如下:
(a)Geo-3DCNN网络的第0层为输入层,输入图像大小为10@3×3×3,10代表输入遥感影像数据包括10个通道,3代表输入影像的时相数,3×3代表输入网络分类的影像块大小;
(b)输入层之后为Geo-3DCNN网络的第一部分,Geo-3DCNN网络的第一部分由卷积层Conv3D、激活层Activation和池化层MaxPool3D组成,卷积层设定的参数如下:
滤波器的个数filters=32,
内核大小kernel_size=[2,2,2],
输出特征图大小的计算方式为padding='SAME',
填充padding=1,
步长strides=[1,1,1],
输入影像经过卷积层后,时相方向:wout=3,高度与宽度方向:wout=3,即该卷积层输出特征响应图的尺寸为32@3×3×3,
接下来为激活层Activation,使用的激活函数是Relu,
激活层Activation之后为池化层MaxPool3D,池化层设定参数如下:
内核大小kernel_size=[2,2,2],
输出特征图大小的计算方式为padding='SAME',
填充padding=1,
步长strides=[1,2,2],
池化方式为最大池化,时相方向:wout=3,高度与宽度方向:wout=2,即池化层输出特征响应图的尺寸为32@3×2×2;
(c)Geo-3DCNN网络的第二部分由卷积层Conv3D、激活层Activation和池化层MaxPool3D组成,卷积层设定的参数如下:
滤波器的个数filters=64,
内核大小kernel_size=[2,2,2],
输出特征图大小的计算方式为padding='SAME',
填充padding=1,
步长strides=[1,1,1],
输入影像经过卷积层后,时相方向:wout=3,高度与宽度方向:wout=2,即该卷积层输出特征响应图的尺寸为64@3×2×2,
接下来为激活层Activation,使用的激活函数是Relu,
激活层Activation之后为池化层MaxPool3D,池化层设定参数如下:
内核大小kernel_size=[2,2,2],
输出特征图大小的计算方式为padding='SAME',
填充padding=1,
步长strides=[1,2,2],
池化方式为最大池化,时相方向:wout=3,高度与宽度方向:wout=1,即池化层输出特征响应图的尺寸为64@3×1×1;
(d)Geo-3DCNN网络的第三部分由卷积层Conv3D、激活层Activation和池化层MaxPool3D组成,卷积层设定的参数如下:
滤波器的个数filters=128,
内核大小kernel_size=[2,2,2],
输出特征图大小的计算方式为padding='SAME',
填充padding=1,
步长strides=[1,1,1],
输入影像经过卷积层后,时相方向:wout=3,高度与宽度方向:wout=1,即该卷积层输出特征响应图的尺寸为128@3×1×1,
接下来为激活层Activation,使用的激活函数是Relu,
激活层Activation之后为池化层MaxPool3D,池化层设定参数如下:
内核大小kernel_size=[2,2...
【专利技术属性】
技术研发人员:顾玲嘉,杨舒婷,任瑞治,
申请(专利权)人:吉林大学,
类型:发明
国别省市:吉林;22
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。