System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 遥感图像超分模型的训练方法和遥感图像超分方法技术_技高网

遥感图像超分模型的训练方法和遥感图像超分方法技术

技术编号:41382227 阅读:6 留言:0更新日期:2024-05-20 10:23
本发明专利技术提供一种遥感图像超分模型的训练方法,该方法包括:获取遥感图像数据集;利用所述遥感图像数据集对初始超分模型进行预训练,得到超分预训练模型;对所述超分预训练模型进行重参数化重聚焦转换,得到转换后的超分模型;利用所述遥感图像数据集对所述转换后的超分模型进行训练,得到遥感图像超分模型。该方法得到的遥感图像超分模型在重建图像时,可以激活更多的输入像素并利用更多的高频信息,能够清晰准确地恢复图像纹理特征,提升了重建图像的质量。

【技术实现步骤摘要】

本专利技术涉及人工智能,具体涉及图像处理、深度学习等,尤其涉及一种遥感图像超分模型的训练方法和遥感图像超分方法


技术介绍

1、卫星遥感图像能够快速提供地球表面的信息,中、低分辨率的卫星遥感图像在提取高精度的地物、地图更新、目标识别尤其是提取高精度的地物等应用中具有一定的局限性,随着高分辨率的卫星遥感图像的发展使得遥感图像在图像匹配、目标检测等方面的深入应用成为可能。然而,受成像技术和拍摄设备的影响,高分辨率的遥感图像通过设备直接获取比较困难,因而通过图像超分重建获得高分辨率的遥感图像受到广泛关注。

2、常见的遥感图像超分方法主要包括基于生成式的超分和基于transformer的超分,其中,基于生成式超分包括基于gan的超分和基于扩散模型的超分,这类超分结果图像虽然有更多的纹理细节,但同时存在伪影和明显的造假纹理;基于transformer的超分相对来说细节纹理不丰富,但没有伪影和造假问题。现有的基于transformer的网络表现出了不错的效果,但此种方法对低分辨率图像的信息范围利用有限,图像细节信息恢复不足,影响了图像重建的质量。


技术实现思路

1、提供一种遥感图像超分模型的训练方法和遥感图像超分方法,采用基于窗口自注意力和通道自注意力的残差混合注意力组,可以激活更多的输入像素并利用更多的高频信息,能够清晰准确地恢复图像纹理特征,同时通过重参数化重聚焦转换,可以利用现有模型先验,降低遥感影像超分模型的训练成本。

2、本专利技术第一方面,提供一种遥感图像超分模型的训练方法,该方法包括:

3、s101:获取遥感图像数据集;

4、s102:利用所述遥感图像数据集对初始超分模型进行预训练,得到超分预训练模型;

5、s103:对所述超分预训练模型进行重参数化重聚焦转换,得到转换后的超分模型;

6、s104:利用所述遥感图像数据集对所述转换后的超分模型进行训练,得到遥感图像超分模型。

7、更进一步地,所述初始超分模型,包括:

8、浅层特征提取模块、深层特征提取模块和图像重建模块;

9、其中,所述深层特征提取模块包括n个级联的残差混合注意力组和带有残差连接的第一卷积层,n为正整数;

10、其中,所述残差混合注意力组包括m个级联的混合注意力卷积块、重叠交叉注意块和带有残差连接的第二卷积层,m为正整数;

11、其中,所述混合注意力卷积块包括并列设置的多头自注意块和通道注意块,以及连接在并列设置的所述多头自注意块和所述通道注意块之后的深度卷积层。

12、更进一步地,所述遥感图像数据集包括多个由原始图像和下采样图像组成的样本对,所述下采样图像是通过对所述原始图像下采样得到,所述步骤s102包括:

13、s1021:将所述下采样图像输入到所述浅层特征提取模块中,以提取浅层特征;

14、s1022:将所述浅层特征输入n个级联的所述残差混合注意力组,使用所述残差混合注意力组逐个进行特征提取和融合,得到n个中间特征,,…,;

15、s1023:将最后一个中间特征输入到所述第一卷积层,得到深层特征,并将所述浅层特征和所述深层特征输入到所述图像重建模块进行图像重建,得到超分图像;

16、s1024:根据所述原始图像和所述超分图像计算超分损失值,并利用所述超分损失值来调整所述初始超分模型的参数,得到所述超分预训练模型。

17、更进一步地,所述步骤s1022,包括:

18、针对第i个残差混合注意力组,i为小于等于n的正整数,使用m个级联的所述混合注意力卷积块基于输入特征逐个进行特征提取和融合,得到m个子中间特征,,…,;

19、将最后一个子中间特征输入所述重叠交叉注意块,得到次中间特征;

20、将所述次中间特征输入所述第二卷积层,得到中间特征。

21、更进一步地,所述针对第i个残差混合注意力组,i为小于等于n的正整数,使用m个级联的所述混合注意力卷积块基于输入特征逐个进行特征提取和融合,得到m个子中间特征,,…,,包括:

22、针对第i个残差混合注意力组的第j个混合注意力卷积块,j为小于等于m的正整数,利用所述多头自注意块和所述通道注意块基于输入特征得到内层中间特征,并利用所述深度卷积层对所述内层中间特征作卷积操作,得到子中间特征。

23、更进一步地,所述重叠交叉注意块基于重叠的窗口来划分输入特征,并计算每个所述窗口特征内部的交叉注意力值。

24、更进一步地,所述步骤s103包括:

25、步骤s1031:用重参数化重聚焦卷积层替换所述超分预训练模型中的所述深度卷积层,其中,所述重参数化重聚焦卷积层从所述超分预训练模型的深度卷积层继承权重并将其冻结为基权wb;

26、步骤s1032:通过重聚焦权重wr对所述基权wb进行重聚焦变换以生成变换权重wt,得到所述转换后的超分模型,其中,所述重聚焦变换计算公式为。

27、更进一步地,所述步骤s104包括:

28、s1041:在所述转换后的超分模型之后连接亮度边缘提取模块,所述亮度边缘提取模块用于提取图像的边缘信息;

29、s1042:将下采样图像输入所述转换后的超分模型,依次通过所述浅层特征提取模块、所述深层特征提取模块和所述图像重建模块进行提取特征,得到第一超分图像;

30、s1043:利用所述亮度边缘提取模块提取所述第一超分图像的边缘信息和所述原始图像的边缘信息;

31、s1044:利用由l1损失函数和边缘损失函数的加权求和得到的总损失函数计算所述遥感图像超分模型的总损失值;

32、s1045:利用所述总损失值来调整所述转换后的超分模型的参数,迭代训练,得到训练好的所述遥感图像超分模型。

33、更进一步地,所述亮度边缘提取模块包括颜色空间转换模块和拉普拉斯算子模块。

34、本专利技术第二方面,提供一种遥感图像超分方法,该方法包括:

35、获取待重建的遥感图像;

36、将所述待重建的图像输入到遥感图像超分模型中,输出针对所述待重建的遥感图像的重建结果;

37、其中,所述遥感图像超分模型是根据上述遥感图像超分模型的训练方法训练得到的。

38、本专利技术的有益效果至少包括:

39、1、本专利技术通过采用一种混合注意力transformer模块,将通道注意力和和窗口自注意力机制相结合,能够激活更多的输入像素,扩大像素可利用范围,提升了重建图像的质量。

40、2、本专利技术采用增强前馈网络,通过线性层和深度卷积层的处理,能够恢复更多的高频信息,使图像纹理更清晰。

41、3、本专利技术通过对预训练超分模型进行重参数化重聚焦变换,扩展了现有模型结构的先验,在低成本的情况下提升遥感图像超分模型性能。

本文档来自技高网...

【技术保护点】

1.一种遥感图像超分模型的训练方法,其特征在于,该方法包括:

2.根据权利要求1所述的方法,其特征在于,所述初始超分模型,包括:

3.根据权利要求2所述的方法,其特征在于,所述遥感图像数据集包括多个由原始图像和下采样图像组成的样本对,所述下采样图像是通过对所述原始图像下采样得到,所述步骤S102包括:

4.根据权利要求3所述的方法,其特征在于,所述步骤S1022包括:

5.根据权利要求4所述的方法,其特征在于,所述针对第i个残差混合注意力组,i为小于等于n的正整数,使用m个级联的所述混合注意力卷积块基于输入特征逐个进行特征提取和融合,得到m个子中间特征,…,,包括:

6.根据权利要求3所述的方法,其特征在于,所述重叠交叉注意块基于重叠的窗口来划分输入特征,并计算每个所述窗口特征内部的交叉注意力值。

7.根据权利要求2所述的方法,其特征在于,所述步骤S103包括:

8.根据权利要求7所述的方法,其特征在于,所述步骤S104包括:

9.根据权利要求8所述的方法,其特征在于,所述亮度边缘提取模块包括颜色空间转换模块和拉普拉斯算子模块。

10.一种遥感图像超分方法,该方法包括:

...

【技术特征摘要】

1.一种遥感图像超分模型的训练方法,其特征在于,该方法包括:

2.根据权利要求1所述的方法,其特征在于,所述初始超分模型,包括:

3.根据权利要求2所述的方法,其特征在于,所述遥感图像数据集包括多个由原始图像和下采样图像组成的样本对,所述下采样图像是通过对所述原始图像下采样得到,所述步骤s102包括:

4.根据权利要求3所述的方法,其特征在于,所述步骤s1022包括:

5.根据权利要求4所述的方法,其特征在于,所述针对第i个残差混合注意力组,i为小于等于n的正整数,使用m个级联的所述混合注意力...

【专利技术属性】
技术研发人员:朱颖曹斐林红磊邹圣兵
申请(专利权)人:北京数慧时空信息技术有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1