当前位置: 首页 > 专利查询>武汉大学专利>正文

一种基于容错性深度学习的遥感影像场景分类方法技术

技术编号:23191395 阅读:15 留言:0更新日期:2020-01-24 16:26
本发明专利技术公开了一种基于容错性深度学习的遥感影像场景分类方法,首先将原始遥感影像场景数据集随机分割为多个子数据集,在每个子数据集上分别学习深度卷积网络模型;接着使用训练得到的多个深度卷积网络模型投票,将原始数据集分割为强数据集和弱数据集,用强数据集作为监督信息,使用多特征协同表示分类来修正弱数据集中样本的标签,从而更新数据集,重复上述过程直到达到迭代次数;最后使用得到的多个深度卷积网络模型投票的方法预测测试影像的标签。本发明专利技术有效提高了错误标签约束下遥感影像场景数据集的分类精度,可用于影像处理、分类等工程应用问题,有效提高性能。

A method of remote sensing image scene classification based on fault tolerant deep learning

【技术实现步骤摘要】
一种基于容错性深度学习的遥感影像场景分类方法
本专利技术属于遥感和摄影测量
,涉及一种基于深度学习的遥感影像场景分类方法,尤其是涉及一种基于容错性深度学习的遥感影像场景分类方法。
技术介绍
遥感影像场景分类通过感知场景中多个目标以及目标间的空间分布关系来预测场景的语义类别。与传统的像素级或对象级遥感影像分类技术相比,遥感影像场景分类可以有效降低遥感影像解译的歧义性,从而提高遥感影像解译稳定性及精度。遥感影像场景分类在多个方面展现了巨大的应用前景,例如灾害救援、经济预测、环境评估等。随着相关领域技术的深度交叉发展,深度学习已经可以有效改善遥感影像场景分类任务的性能。然而,深度学习的优越表现依赖于大量准确标注的样本。当训练样本的标签存在错误时,深度学习的性能会不可避免地下降。在遥感大数据时代,原始遥感影像数据相对容易获取,但海量数据的标注工作很难完成。为了加速样本标注的过程,人们开发了两类遥感影像场景的贪心标注算法:一类方法将大量的样本通过自动化算法聚集为有限数目的聚类,再由人工对每一个聚类进行标注;另一类方法使用众源地理空间语义信息来对遥感影像场景进行标注。上述两类加速标注过程的方法虽然节省了标注所需花费的时间与人力成本,但是不可避免地会引入错误标签。因此,如何基于包含错误标签的遥感影像场景数据集训练出鲁棒的深度网络具有重要的现实意义。在学术界,计算机视觉的研究人员们开发了许多容错性深度学习的方法来减少通过网络获取的自然影像数据集中错误标签的影响。然而错误标签约束下的遥感影像场景分类问题却鲜有研究。与自然影像相比,遥感影像通常具有更为复杂的光谱信息与结构信息,无法直接将现有的自然影像容错性深度学习方法应用到遥感领域中。因此,将容错性策略与深度学习结合是解决错误标签约束下遥感影像场景分类问题最具潜力的方法。遥感影像容错性深度学习技术的研究非常紧迫并且还需要进行大量的探索。
技术实现思路
本专利技术立足于大范围遥感影像场景数据集的准确标签难以获得这一现实问题,提出了一种基于容错性深度学习的遥感影像场景分类方法,可以充分利用较易获得的含有错误标签的遥感影像场景数据集,在含有错误标签的遥感影像场景数据集约束下训练出鲁棒性好的深度网络分类模型,从而有效提高遥感影像场景的分类精度。本专利技术所采用的技术方案是:一种基于容错性深度学习的遥感影像场景分类方法,包括以下步骤:步骤1:输入原始遥感影像场景数据集ΓR={(I1,O1),(I2,O2),…,(Ir,Or)},其中Ir表示遥感影像场景,Or表示可能错误的遥感影像场景标签,r表示ΓR中遥感影像场景的数目。初始化修正后的数据集ΓC=ΓR,强数据集弱数据集其中强数据集中含有准确的标签,弱数据集中含有不准确的标签;步骤2:将步骤1中修正后的数据集ΓC随机分割为Z个子数据集;步骤3:在步骤2中的子数据集ΓviewID上学习深度卷积网络模型超参数ΦviewID,其中viewID=1,2,…,Z;步骤4:使用步骤3中的Z个深度卷积网络模型预测样本的标签,根据预测结果将修正后的数据集ΓC分割为强数据集ΓS和弱数据集ΓW;步骤5:用步骤4中的强数据集ΓS作为监督信息,使用多特征协同表示分类修正步骤4中的弱数据集ΓW中每个样本的标签,其中多特征协同表示分类所使用的特征为步骤3的Z个深度卷积网络模型的全连接层输出;步骤6:更新修正后的数据集ΓC=ΓS∪Γ′W,其中Γ′W表示修正后的ΓW;步骤7:重复步骤2-6直到达到迭代次数;步骤8:经过多次迭代后最终获得的Z个深度卷积网络模型,通过多模型投票的方法预测遥感影像场景I的标签。进一步的,步骤2中的Z个子数据集{Γ1,Γ2,…,ΓZ}满足ΓC=Γ1∪Γ2∪…∪ΓZ且i=1,2,…,Z;j=1,2,…,Z。进一步的,步骤3中在Z个子数据集上分别学习Z个不同的深度卷积网络模型,Z个深度卷积网络模型具有相同的网络结构,它们的超参数表示为{Φ1,Φ2,…,ΦZ}。进一步的,步骤4中使用步骤3中的Z个深度卷积网络模型预测样本的标签,若所有模型针对某样本预测均相同,则认为该样本的标签具有高置信度,将该样本及其标签纳入强数据集;反之,则认为该样本的标签有误,将该样本及其标签纳入弱数据集;强数据集中含有sn个样本,表示为ΓS={(I1,O1),(I2,O2),…,(Isn,Osn)};弱数据集中含有wn个样本,表示为ΓW={(I1,O1),(I2,O2),…,(Iwn,Own)},其中ΓC=ΓS∪ΓW且r=sn+wn。进一步的,步骤5的具体实现包括以下子步骤:步骤5.1:将步骤4中的强数据集输入到步骤3中的Z个深度卷积网络模型,得到的全连接层输出即为多特征协同表示所使用的训练特征集X={X1,X2,…,XM},其中M表示特征的种类;表示遥感影像场景使用第v种特征得到的特征矩阵,dv表示第v种特征的维度,N表示遥感影像场景训练集的数目;其中表示第i类遥感影像场景的第v种特征矩阵,的每一列表示第i类遥感影像场景的第v个特征向量;步骤5.2:同样地,将步骤4中的弱数据集输入到步骤3中的Z个深度卷积网络模型,得到的全连接层输出即为测试特征集y={y1,y2,…,yM},其中M为特征的种类,表示测试遥感影像场景的第v种特征,dv表示第v种特征的维度;步骤5.3:初始化特征权重w(0)=[w1(0),w2(0),…,wM(0)];步骤5.4:按照下式更新协同表示向量:其中k为迭代次数k=1,2,…,K,β表示正则化参数,ρ(k)表示第k次迭代中的协同表示向量,w=[w1,w2,…,wM]表示不同特征的权重向量,I表示单位矩阵;步骤5.5:按照下式更新特征权重向量:步骤5.6:重复步骤5.4-5.5直到达到迭代次数K,并取最后一次迭代的值来更新特征权重向量与协同表示向量步骤5.7:根据步骤5.6中的特征权重向量与协同表示向量测试特征集的类重建残差按照下式计算:其中i表示类别序号i=1,2,…,C;表示第i类遥感影像场景的协同表示子向量;步骤5.8:根据步骤5.7中的类重建残差推断测试遥感影像场景的标签:其中t(y)表示测试遥感影像场景的标签。进一步的,步骤8中使用多模型投票预测遥感影像场景I的标签可按照下式计算:其中,t表示预测的遥感影像场景I的标签,c表示类别,d表示深度卷积网络模型的序号,Vd=Ψ(I;Φd)∈RT×1表示遥感影像场景I输入第d个带有超参数Φd的深度卷积网络模型得到的softmax层输出,T表示类别的数目。本专利技术具有如下优点:多个深度卷积网络模型的训练与错误标签的修正分别以迭代优化的方式交替进行,对错误标签的修正提高了深度卷积网络模型的性能,而更好的深度卷积网络模型提高了提取特征的质量,从而进一步地修正错误标签。两个过程相辅相成,互相促进;提出了一种新颖的多特征协同表示分类器,该分类器能自适应地组合多个特征。相较于现有方法而言,有本文档来自技高网
...

【技术保护点】
1.一种基于容错性深度学习的遥感影像场景分类方法,其特征在于,包括以下步骤:/n步骤1:输入原始遥感影像场景数据集Γ

【技术特征摘要】
1.一种基于容错性深度学习的遥感影像场景分类方法,其特征在于,包括以下步骤:
步骤1:输入原始遥感影像场景数据集ΓR={(I1,O1),(I2,O2),…,(Ir,Or)},其中Ir表示遥感影像场景,Or表示可能错误的遥感影像场景标签,r表示ΓR中遥感影像场景的数目,初始化修正后的数据集ΓC=ΓR,强数据集弱数据集
步骤2:将步骤1中修正后的数据集ΓC随机分割为Z个子数据集;
步骤3:在步骤2中的子数据集ΓviewID上学习深度卷积网络模型超参数ΦviewID,其中viewID=1,2,…,Z;
步骤4:使用步骤3中的Z个深度卷积网络模型预测样本的标签,根据预测结果将修正后的数据集ΓC分割为强数据集ΓS和弱数据集ΓW;
步骤5:用步骤4中的强数据集ΓS作为监督信息,使用多特征协同表示分类修正步骤4中的弱数据集ΓW中每个样本的标签,其中多特征协同表示分类所使用的特征为步骤3的Z个深度卷积网络模型的全连接层输出;
步骤6:更新修正后的数据集ΓC=ΓS∪Γ′W,其中Γ′W表示修正后的ΓW;
步骤7:重复步骤2-6直到达到迭代次数;
步骤8:经过多次迭代后最终获得的Z个深度卷积网络模型,通过多模型投票的方法预测遥感影像场景I的标签。


2.根据权利要求1所述的基于容错性深度学习的遥感影像场景分类方法,其特征在于:步骤2中的Z个子数据集{Γ1,Γ2,…,ΓZ}满足ΓC=Γ1∪Γ2∪…∪ΓZ且i=1,2,…,Z;j=1,2,…,Z。


3.根据权利要求1所述的基于容错性深度学习的遥感影像场景分类方法,其特征在于:步骤3中在Z个子数据集上分别学习Z个不同的深度卷积网络模型,Z个深度卷积网络模型具有相同的网络结构,它们的超参数表示为{Φ1,Φ2,…,ΦZ}。


4.根据权利要求1所述的基于容错性深度学习的遥感影像场景分类方法,其特征在于:步骤4中使用步骤3中的Z个深度卷积网络模型预测样本的标签,若所有模型针对某样本预测均相同,则认为该样本的标签具有高置信度,将该样本及其标签纳入强数据集;反之,则认为该样本的标签有误,将该样本及其标签纳入弱数据集;强数据集中含有sn个样本,表示为ΓS={(I1,O1),(I2,O2),…,(Isn,Osn)};弱数据集中含有wn个样本,表示为ΓW={(I1,O1),(I2,O2),…,(Iwn,...

【专利技术属性】
技术研发人员:李彦胜陈蔚张永军
申请(专利权)人:武汉大学
类型:发明
国别省市:湖北;42

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1