当前位置: 首页 > 专利查询>湖北大学专利>正文

基于双通道注意力机制的跨场景遥感图像深度对抗迁移学习方法技术

技术编号:33064522 阅读:47 留言:0更新日期:2022-04-15 09:54
本发明专利技术涉及基于双通道注意力机制的跨场景遥感图像深度对抗迁移学习方法,主要包括以下步骤:1、将源域和目标域中的每个样本转化为一个三维数据立体块;2、构建深度对抗迁移学习网络,该网络主要包含一个生成器和两个分类器;将源域样本数据投入网络进行初步训练,得到网络参数;3、训练分类器;4、训练生成器,与步骤3形成对抗训练;5、迭代训练:将步骤2

【技术实现步骤摘要】
基于双通道注意力机制的跨场景遥感图像深度对抗迁移学习方法


[0001]本专利技术涉及卫星遥感领域领域,具体讲的是一种基于双通道注意力机制的跨场景遥感图像深度对抗迁移学习方法。

技术介绍

[0002]目前,世界各国发射了大量遥感卫星,大量的遥感影像历史数据以及在轨数据,为生态环境监测、土壤质量评估、地质矿物填图等实际应用提供了大数据支撑。但是实际应用中仍存在一个关键问题:不同场景对应的遥感影像之间存在较大差异,例如影像分辨率差异、光谱辐射差异、时空差异、地域差异等,导致不同影像之间的知识无法迁移、传递和共用。针对这一问题,本专利采用如下策略:考虑到相似的场景或相同的传感器对应的高光谱数据具有相似的特性,采用迁移学习技术,构建深度对抗迁移学习网络,借助已标记的历史场景影像数据(源域),实现对未标记场景影像(目标域)的自动分类。在这种情况下,如果成功地进行了知识迁移,将避免目标域复杂的数据标记工作,大大提高学习的性能。
[0003]这里需要指出的是,迁移学习与传统的分类方法是明显不同的。传统的分类方法,假设训练数据和测试数据具有相同的分布,用本文档来自技高网...

【技术保护点】

【技术特征摘要】
1.基于双通道注意力机制的跨场景遥感图像深度对抗迁移学习方法,其特征在于,包括以下步骤:步骤1、数据预处理,将源域与目标域中的每个样本转换为三维立方块,得到源域样本数据和目标域样本数据;步骤2、构建包含一个生成器和两个分类器的深度对抗迁移学习网络,所述生成器利用输入数据生成输出数据,并将输出数据分别输入两个分类器,每个分类器均用于对输入的数据进行分类并输出分类结果;步骤3、将步骤1中的源域样本数据输入深度对抗迁移学习网络,对深度对抗迁移学习网络进行预训练,得到预训练后的深度对抗迁移学习网络;步骤4、固定预训练后的深度对抗迁移学习网络的生成器的参数,对两个分类器进行训练;将步骤1中的源域样本数据和目标域样本数据输入预训练后的的深度对抗迁移学习网络中,生成器分别提取源域和目标域样本的光谱与空间联合特征并同时输入两个分类器,得到两个分类器对应的源域预测标签和目标域预测标签,计算每个分类器的源域样本分类损失和两个分类器之间的输出差异,训练两个分类器直到两个分类器之间的输出差异达到最大值且每个分类器的源域样本分类损失均达到最小值后结束训练;训练完毕后,保存训练后的分类器参数得到二次训练后的深度对抗迁移学习网络,转到下一步;步骤5、固定二次训练后的深度对抗迁移学习网络中两个分类器的参数,对生成器进行训练,与步骤4形成对抗训练;将步骤1中的源域样本数据输入二次训练后的深度对抗迁移学习网络中,生成器分别提取源域和目标域样本的光谱与空间联合特征并同时输入两个分类器,得到两个分类器对应的源域预测标签和目标域预测标签,计算两个分类器之间的输出差异,训练生成器,直到两个分类器之间的输出差异达到最小值判断一次训练完成,重复训练直到训练次数达到预设训练次数后判断训练完毕;训练完毕后,保存训练后的生成器参数和上一步训练后的分类器参数,得到本次迭代后的深度对抗迁移学习网络,迭代次数加1,计算本次迭代后的深度对抗迁移学习网络的每个分类器的输出值的总体准确率即OA值,若迭代次数达到预设最大次数或任意一个分类器的OA值大于预设阈值,则转到下一步,否则转到步骤3,并将步骤3中的对抗迁移学习网络更新为本次迭代后的深度对抗迁移学习网络;步骤6、选择最后一次迭...

【专利技术属性】
技术研发人员:黄怡彭江涛陈娜宁羽杰苏涵
申请(专利权)人:湖北大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1