当前位置: 首页 > 专利查询>福州大学专利>正文

融合Swin Transformer与视觉图神经网络的遥感影像场景分类方法技术

技术编号:40096908 阅读:22 留言:0更新日期:2024-01-23 17:05
本发明专利技术提供一种融合Swin Transformer与视觉图神经网络的遥感影像场景分类方法,涉及计算机视觉和遥感图像处理领域。该模型由四个关键部分组成:首先是基于剪枝Swin Transformer的特征提取器,其能构建远距离依赖关系,捕捉全局和局部特征;其次是过渡层,将特征序列转换为特征图;接着,基于视觉图神经网络(ViG)的特征提取器,能够捕捉场景图像的空间拓扑关系,形成空间感知特征;最后使用分类器进行具体的场景分类。本发明专利技术采用串行融合和模型剪枝的策略,在降低模型复杂度和训练时间的同时,巧妙融合多尺度特征和空间感知特征,更好地处理了遥感图像类间相似性高和类内差异大的问题,与现有场景分类方法相比,具有较好的遥感场景分类性能。

【技术实现步骤摘要】

本专利技术涉及遥感影像场景分类,特别是融合swin transformer与视觉图神经网络的遥感影像场景分类方法。


技术介绍

1、遥感影像场景分类是指根据遥感影像中的地理和环境信息将其自动划分为特定的语义标签,通常一幅场景图像对应一个语义标签,如森林、农田、建筑物、道路等,是遥感影像解译的核心任务之一。通过准确快速地识别和分类遥感影像中的地物和场景,可以提供有关土地利用、环境状况、城市发展、灾害风险和自然资源等方面的信息,为决策和规划提供科学依据,促进可持续发展和智慧城市建设。

2、遥感影像场景分类的一般流程主要是先对输入的图像进行特征提取,再根据特征利用分类器得到分类结果。图像特征提取作为场景分类的关键环节,其主要方法可分为:(1)基于传统的手工特征提取;(2)基于深度学习的特征提取。传统的遥感场景分类方法大多依赖于手工设计的结构、光谱、纹理、颜色、形状等低层视觉特征,如颜色直方图、尺度不变特征变换特征、局部二值特征等,该方法往往基于专家的经验和主观判断,特征设计过程中存在主观性和依赖性,表达能力有限,且耗时耗力。这些限制促使了基于深度学习的本文档来自技高网...

【技术保护点】

1.融合Swin Transformer与视觉图神经网络的遥感影像场景分类方法,其特征在于,包括以下步骤:

2.根据权利要求1所述的融合Swin Transformer与视觉图神经网络的遥感影像场景分类方法,其特征在于,步骤S1具体包括以下步骤:

3.根据权利要求1所述的融合Swin Transformer与视觉图神经网络的遥感影像场景分类方法,其特征在于,步骤S2具体包括以下步骤:

4.根据权利要求1所述的融合Swin Transformer与视觉图神经网络的遥感影像场景分类方法,其特征在于,步骤S4具体包括以下步骤:

【技术特征摘要】

1.融合swin transformer与视觉图神经网络的遥感影像场景分类方法,其特征在于,包括以下步骤:

2.根据权利要求1所述的融合swin transformer与视觉图神经网络的遥感影像场景分类方法,其特征在于,步骤s1具体包括以下步骤:

3.根据权...

【专利技术属性】
技术研发人员:徐伟铭李紫微杨仕煜王娟潘凯祥何小英
申请(专利权)人:福州大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1