一种基于改进Real-ESRGAN模型的超分辨率图像重建方法技术

技术编号:43285142 阅读:47 留言:0更新日期:2024-11-12 16:07
本发明专利技术公开了一种基于改进Real‑ESRGAN模型的超分辨率图像重建方法,包括以下步骤:将待重建低分辨率图像输入到预训练的改进Real‑ESRGAN模型的生成网络,获得重建后的高分辨率图像;其中,所述改进Real‑ESRGAN模型的生成网络增加了自注意力模块。本发明专利技术可以提高重建图像质量、增强重建图像的细节以及提高模型鲁棒性。

【技术实现步骤摘要】

本专利技术涉及图像重建,更具体的说是涉及一种基于改进real-esrgan模型的超分辨率图像重建方法。


技术介绍

1、超分辨率技术旨在将低分辨率(low-resolution,lr)图像重建为高分辨率(high-resolution,hr)图像,实现超分辨率的方法通常可以分为两种:基于图像插值的方法和基于深度学习的方法。基于图像插值的超分辨率技术通过在图像原有的像素周围插入新像素来加大图像的尺寸,并给这些新像素赋值,从而恢复图像内容,提高图像分辨率。而基于深度学习的超分辨率技术则通过深度神经网络进行训练,学习从低分辨率图像到高分辨率图像的映射关系。这种方法可以提取图像中的更多信息,并生成更加真实、清晰的高分辨率图像。随着深度学习技术的不断发展,基于深度学习的超分辨率技术已经成为主流方法。

2、但是,现有的基于深度学习的超分辨率技术依然存在缺少图像细节,重建图像质量不高的问题。

3、因此,如何提供一种超分辨率图像重建方法,其可以有效增强图像细节,提高重建图像质量是本领域技术人员亟需解决的问题。


技术实现思路

1、有鉴于此,本专利技术的目的是提供一种基于改进real-esrgan模型的超分辨率图像重建方法。

2、为了实现上述目的,本专利技术采用如下技术方案:

3、一种基于改进real-esrgan模型的超分辨率图像重建方法,包括以下步骤:

4、将待重建低分辨率图像输入到预训练的改进real-esrgan模型的生成网络,获得重建后的高分辨率图像;

5、其中,所述改进real-esrgan模型的生成网络增加了自注意力模块。

6、优选的,所述改进real-esrgan模型的生成网络将原real-esrgan模型生成网络中的rrdb全替换为z_rrdb;

7、所述z_rrdb包括依次连接的第一conv_lrelu层、第二conv_lrelu层、第三conv_lrelu层、第四conv_lrelu层、第五卷积层、自注意力模块、第六卷积层、逐元素相加单元和第七卷积层;

8、第一conv_lrelu层的输入端分别与第二conv_lrelu层、第三conv_lrelu层、第四conv_lrelu层、第五卷积层的输入端相连;

9、第二conv_lrelu层的输入端分别与第三conv_lrelu层、第四conv_lrelu层、第五卷积层的输入端相连;

10、第三conv_lrelu层的输入端分别与第四conv_lrelu层、第五卷积层的输入端相连;

11、第五卷积层的输出端与第六卷积层的输入端相连;

12、第一conv_lrelu层的输入端与逐元素相加单元的输入端相连。

13、优选的,所述改进real-esrgan模型的判别网络采用带有光谱归一化的u-net结构。

14、优选的,所述改进real-esrgan模型的生成网络的总损失函数为:

15、l=lpercep+λlg+ηl1;

16、其中,l表示所述改进real-esrgan模型的生成网络的总损失;l1表示平均绝对误差损失;lpercep表示感知损失;lg表示gan网络损失;η表示平均绝对误差损失的系数;λ表示gan网络损失的系数。

17、优选的,感知损失lpercep的表达式为:

18、lpercep=||p(xi)-φ(yi)||1;

19、其中,||||1表示求l1范数;φ表示vgg19模型;xi表示输入到vgg19模型的第i个特征层数据;yi表示xi对应的真实数据。

20、优选的,输入到vgg19模型的特征层数据包括激活前的特征层conv1_2的数据、激活前的特征层conv2_2的数据、激活前的特征层conv3_4的数据、激活前的特征层conv4_4的数据以及激活前的特征层conv5_4的数据。

21、优选的,所述gan网络损失lg的表达式为:

22、

23、其中,d表示所述改进real-esrgan模型的判别网络;代表真实标签;xi’表示输入到所述改进real-esrgan模型的判别网络的数据。

24、优选的,所述平均绝对误差损失l1的表达式为:

25、l1=mean||g(xi")-yi"||1;

26、其中,mean表示求平均值;||||1表示求l1范数;g表示所述改进real-esrgan模型的生成网络;xi”表示输入到所述改进real-esrgan模型的判别网络的数据;yi”表示xi”对应的真实数据。

27、优选的,λ为0.1。

28、优选的,η为1。

29、经由上述的技术方案可知,与现有技术相比,本专利技术公开提供了一种基于改进real-esrgan模型的超分辨率图像重建方法,其可以获得以下有益技术效果:

30、1)提高重建图像质量:自注意力机制能够建立图像中任意两个位置之间的直接联系,而不仅仅是局部区域。这使得模型能够更好地捕捉图像中的全局依赖关系,从而提高生成图像的质量。

31、2)增强重建图像的细节:由于自注意力机制能够考虑图像中所有其他位置的信息,获得更大的感受野和上下文信息,因此它能够帮助模型在生成高分辨率图像时更好地恢复和增强细节。

32、3)提高模型鲁棒性:自注意力机制对输入特征的依赖性较小,因此它能够提高模型的鲁棒性。当输入图像中存在噪声或失真时,自注意力机制仍然能够捕获图像中的关键信息,并生成高质量的输出图像。

本文档来自技高网...

【技术保护点】

1.一种基于改进Real-ESRGAN模型的超分辨率图像重建方法,其特征在于,包括以下步骤:

2.根据权利要求1所述的一种基于改进Real-ESRGAN模型的超分辨率图像重建方法,其特征在于,所述改进Real-ESRGAN模型的生成网络将原Real-ESRGAN模型生成网络中的RRDB全替换为Z_RRDB;

3.根据权利要求1所述的一种基于改进Real-ESRGAN模型的超分辨率图像重建方法,其特征在于,所述改进Real-ESRGAN模型的判别网络采用带有光谱归一化的U-Net结构。

4.根据权利要求1-3任意一项所述的一种基于改进Real-ESRGAN模型的超分辨率图像重建方法,其特征在于,所述改进Real-ESRGAN模型的生成网络的总损失函数为:

5.根据权利要求4所述的一种基于改进Real-ESRGAN模型的超分辨率图像重建方法,其特征在于,感知损失Lpercep的表达式为:

6.根据权利要求5所述的一种基于改进Real-ESRGAN模型的超分辨率图像重建方法,其特征在于,输入到VGG19模型的特征层数据包括激活前的特征层conv1_2的数据、激活前的特征层conv2_2的数据、激活前的特征层conv3_4的数据、激活前的特征层conv4_4的数据以及激活前的特征层conv5_4的数据。

7.根据权利要求4所述的一种基于改进Real-ESRGAN模型的超分辨率图像重建方法,其特征在于,所述GAN网络损失LG的表达式为:

8.根据权利要求4所述的一种基于改进Real-ESRGAN模型的超分辨率图像重建方法,其特征在于,所述平均绝对误差损失L1的表达式为:

9.根据权利要求4所述的一种基于改进Real-ESRGAN模型的超分辨率图像重建方法,其特征在于,λ为0.1。

10.根据权利要求4所述的一种基于改进Real-ESRGAN模型的超分辨率图像重建方法,其特征在于,η为1。

...

【技术特征摘要】

1.一种基于改进real-esrgan模型的超分辨率图像重建方法,其特征在于,包括以下步骤:

2.根据权利要求1所述的一种基于改进real-esrgan模型的超分辨率图像重建方法,其特征在于,所述改进real-esrgan模型的生成网络将原real-esrgan模型生成网络中的rrdb全替换为z_rrdb;

3.根据权利要求1所述的一种基于改进real-esrgan模型的超分辨率图像重建方法,其特征在于,所述改进real-esrgan模型的判别网络采用带有光谱归一化的u-net结构。

4.根据权利要求1-3任意一项所述的一种基于改进real-esrgan模型的超分辨率图像重建方法,其特征在于,所述改进real-esrgan模型的生成网络的总损失函数为:

5.根据权利要求4所述的一种基于改进real-esrgan模型的超分辨率图像重建方法,其特征在于,感知损失lpercep的表达式为:

...

【专利技术属性】
技术研发人员:曾学张雨欣王永增祖云伟杨思瑜唐嘉田雨川
申请(专利权)人:昆明昆船智慧机场技术有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1