当前位置: 首页 > 专利查询>临沂大学专利>正文

一种基于深度学习的多尺度聚合Transformer遥感图像语义分割方法技术

技术编号:40465443 阅读:47 留言:0更新日期:2024-02-22 23:19
本发明专利技术公开一种基于深度学习的多尺度聚合Transformer遥感图像语义分割方法,属于图像处理技术领域。本方法设计并提出一个用于遥感图像的语义分割模型,主要应用于高分辨遥感图像的场景理解等任务。该方法模型沿用UNet的框架设计,主要分为编码器和解码器两部分。本发明专利技术改进基于Transformer的遥感图像语义分割模型,可以高效地提取全局信息,更好地融合多尺度特征。相比于流行的基于Transformer的语义分割模型,本发明专利技术提出的模型拥有更少的参数量和计算量,大大减小资源占用,扩大了模型的实际应用场景。

【技术实现步骤摘要】

本专利技术属于图像处理,具体涉及一种基于深度学习的多尺度聚合transformer遥感图像语义分割方法。


技术介绍

1、在传感器技术的推动下,高分辨率遥感图像在全球范围内被越来越多的捕获,因其具有丰富的空间细节和潜在语义内容,遥感图像被广泛地用于语义分割和分类任务,出现了各种与之相关的应用,特别是具有高分辨率的城市遥感图像语义分割任务,如城市道路提取、城市规划和土地覆盖制图等。这些应用激励着研究人员探索有效和高效的分割网络。

2、深度学习的出现为遥感图像语义分割提供了一个新的方案。众多研究表明,与传统的图像语义分割方法相比,基于深度学习的图像语义分割方法可以极大地提高语义分割的精度,满足实际生产生活中的精度需要。由于遥感图像往往具有较大的分辨率和较大的尺度变化,这导致图像特征提取时面临“同类异谱”和“同谱异类”的问题,因此需要一种能够高效提取全局信息和局部信息的遥感图像语义分割方法解决遥感图像语义分割领域目前所面临的问题。同时,考虑到实际的应用场景,基于深度学习的遥感图像语义分割方法亟需在模型大小和计算复杂度上取得良好的平衡,解决难以在计算资源本文档来自技高网...

【技术保护点】

1.一种基于深度学习的多尺度聚合Transformer遥感图像语义分割方法,其特征在于,包括以下步骤:

2.根据权利要求1所述基于深度学习的多尺度聚合Transformer遥感图像语义分割方法,其特征在于,步骤S1具体为:使用Vaihingen数据集,该数据集由33个精细的空间分辨率TOP图像块构成,平均大小为2494×2064像素,按照步长为1024像素对该数据集进行裁剪,得到每张为1024×1024像素的图像。

3.根据权利要求1所述基于深度学习的多尺度聚合Transformer遥感图像语义分割方法,其特征在于,步骤S2具体为:将步骤S1处理得到的Vaihin...

【技术特征摘要】

1.一种基于深度学习的多尺度聚合transformer遥感图像语义分割方法,其特征在于,包括以下步骤:

2.根据权利要求1所述基于深度学习的多尺度聚合transformer遥感图像语义分割方法,其特征在于,步骤s1具体为:使用vaihingen数据集,该数据集由33个精细的空间分辨率top图像块构成,平均大小为2494×2064像素,按照步长为1024像素对该数据集进行裁剪,得到每张为1024×1024像素的图像。

3.根据权利要求1所述基于深度学习的多尺度聚合transformer遥感图像语义分割方法,其特征在于,步骤s2具体为:将步骤s1处理得到的vaihingen数据集的33个精细的空间分辨率top图像块分为两部分,其中,使用16个图像块进行训练,其余17个图像块进...

【专利技术属性】
技术研发人员:张敬林刘卫林王兴华王伦乾丁昊夏博
申请(专利权)人:临沂大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1