System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 一种基于文本引导的图像超分辨方法技术_技高网

一种基于文本引导的图像超分辨方法技术

技术编号:41274810 阅读:5 留言:0更新日期:2024-05-11 09:27
本发明专利技术属于图像处理技术领域,具体涉及一种基于文本引导的图像超分辨方法,包括如下步骤:S1、利用已有的数据集,制作高分辨率与低分辨率图像数据集;S2、构建基于文本提示的神经网络模型,用于模型训练;S3、依据步骤S1制作的数据集对步骤S2构建的网络进行训练和测试,保存网络参数;S4、将一张低分辨率图片和其对应的文本信息作为网络的输入,利用步骤S2学习得到的参数重建一张高分辨率的图像作为输出。本发明专利技术考虑到现实场景超分的复杂场景,使用文本信息来对网络进行指导,通过文本信息与低清图片信息之间的互补,指导低清图片生成更多的信息,使得在低清图像特别模糊的情况下仍然能够恢复出较好的细节信息。

【技术实现步骤摘要】

本专利技术属于图像处理,具体涉及一种基于文本引导的图像超分辨方法


技术介绍

1、图像超分辨指的是从低分辨率的图像中,重建出具有更高分辨率的图像过程。在数字图像的处理过程中,图片往往会受到多种元素的影响,例如相机硬件的不足,网络传输压缩中的损失等,最终导致得到的图像分辨率很低,通过图像超分辨率重建算法,可以使低分辨率图像能够获得更多的实用信息。已有的基于神经网络的方法已经取得了不错的重建效果,然而,需要指出的是,这些方法仅仅依赖与低清图片的信息来恢复出高清图片的细节,当低清图片包含太少的信息时,超分网络则不能很好的恢复出高清图片的细节信息。为了解决这一问题,一些工作通过加入先验信息来增加低清图片的信息,帮助网络重建出高清图像。

2、经检索,现有的技术中都是使用参考图像实现的。如公开号为cn116416132a的中国专利文献公开了一种基于多视角参考图像的图像重建方法、计算机设备及介质,该方案将多个视角的高分辨率图像作为参考图像,采用基于像素变换的有参考超分图像重建方法来对低分辨率图像进行分辨率的提升,缓解了仅仅使用单张参考图像进行超分重建所带来的全局清晰度不一致的问题。这种方式虽然在一定程度上弥补了低清图片信息不足带来的问题,但是在获取高清图片上仍然是一件难题,并且还需要多张高清参考图像进行,在现实场景获取多张参考图像的成本是一个很大的问题。

3、基于以上分析,现有技术需要一种能够使用语义信息来指导图像超分辨的方法。


技术实现思路

1、本专利技术的目的在于克服传统技术中存在的无法处理现实中复杂多变的图像超分辨问题,提供一种基于文本引导的图像超分辨方法,利用多模态融合的方法来解决单图像超分问题,因此能够适应各种复杂的超分场景,满足了现实中的要求。

2、为实现上述技术目的,达到上述技术效果,本专利技术是通过以下技术方案实现:

3、本专利技术提供一种基于文本引导的图像超分辨方法,包括如下步骤:

4、s1、利用已有的数据集,制作高分辨率与低分辨率图像数据集;

5、s2、构建基于文本提示的神经网络模型,用于模型训练;

6、s3、依据步骤s1制作的数据集对步骤s2构建的网络进行训练和测试,保存网络参数;

7、s4、将一张低分辨率图片和其对应的文本信息作为网络的输入,利用步骤s2学习得到的参数重建一张高分辨率的图像作为输出。

8、进一步地,步骤s1中,使用cub和celeba数据集制作高分辨率图像块与低分辨率图像块训练集和测试集,其中cub为一种公开的鸟类数据集,其中每张图像均提供了图像的文本信息;celeba为一种公开的人脸数据集,其中每张图像均提供了图像的文本信息;

9、制作高分辨率与低分辨率的成对图像训练集的过程为:针对使用的数据集中的每张图像,首先将高分辨率图像进行缩放裁剪,其次将得到的图像进行双三次下采样得到低分辨率图像,同时将数据集中每张图片对应的十个文本随机选取其中的一个作为低清图片的文本信息;对数据集中的所有图片进行上述处理,即可得到用于网络训练的低分辨-高分辨图像对集合,同时每张低分辨率图像都有对应的文本信息标签。

10、进一步地,步骤s1中,构建的网络模型是由多种模块组成的,分别为图像编码器、迭代细化生成器、预训练的文本编码器、预训练的clip(contrastivelanguageimagepre-training)网络(公开的多模态模型)、深度图像融合模块以及提示预测器模块;

11、模块的运行流程如下:开始时,先用预训练的文本编码器对选取的文本进行特征提取,将得到的文本特征送入到文本注意力机制中,同时将低清图片送入到图像编码器中,得到图像的特征信息,将图像特征和文本特征进行初步的对齐;然后将文本特征和图片特征同时送入到clip网络中,从clip中得到文本和图像融合后的特征,将文本融合图像后的特征进行迭代融合,恢复更多的细节信息;最后将图像送入到亚像素卷积中对图像进行上采样,然后转换成rgb图像;具体流程用公式(1)表示:

12、tf=cliptextencoder(t)

13、if=imageencoder(ilr)

14、fmult=fblock(tf,if)

15、ic=clip(fmult,tf)

16、isr=upsampling(dn…(d1(ic,tf))      (1)

17、其中,cliptextencoder()表示预训练的clip文本编码器,imageencoder()表示未训练的图像编码器,fblock()表示文本图像对齐,clip表示预训练的clip网络,t表示文本信息,tf表示文本特征,ilr表示低清图片,if表示图像特征,fmult表示多模态特征信息,ic表示从clip中引出的图像特征信息,dn()代表第n次融合细化,isr表示超分后的结果。

18、进一步地,所述预训练的文本编码器是使用的clip文本编码器,用于获取文本特征信息,得到的是1x15的特征向量。

19、进一步地,所述的网络模型中,

20、图像编码器,用于提取图像的特征信息;

21、迭代细化模块,用于迭代细化图像的细节信息;

22、预测器,用于提示词的权重计算;

23、使用的图像编码器中,采用卷积和残差的形式,将输入的低清图片送入到网络中,经过卷积提取后,得到初始的特征信息;

24、使用的迭代细化模块利用从clip中提取出来的图像特征,将特征信息经过多次融合迭代,与文本信息相结合,用来迭代细化图像的特征;其中,在每一次进行迭代后,使用残差将迭代后的特征信息,和图像的特征信息进行相加,用来保持图像内容的一致性,最后通过上采样将图像放大四倍,得到高分辨率图像,在经过卷积层将特征信息恢复成rgb图像;

25、使用的预测器利用文本注意力机制计算文本之间向量的权重信息,其中,由预训练的clip文本编码器提取出文本向量后,将得到的文本向量x送入到多层感知器中,得到n个输入向量{x1,x2,…xn},计算得到q,k,v,具体表示如公式(2)所示:

26、q=q(x)

27、k=k(x)

28、v=v(x)

29、scores=s(q·kt)

30、αn=softmax(scores)

31、

32、其中,输入序列x文本向量经过线性变换得到,q(x)查询,k(x)键,v(x)值,用于计算加权后的表示,s(q·kt)为注意力打分函数,通过softmax()计算注意力权重αn,最后通过注意力权重对xn进行加权求和,得到最后的输出。

33、进一步地,使用clip-vit32:clip-vit32模型的网络架构主要由两部分组成:一个是视觉处理器,采用了visiontransformer(vit)的编码器;另一个是文本处理器,采用了一个简单的前馈神经网本文档来自技高网...

【技术保护点】

1.一种基于文本引导的图像超分辨方法,其特征在于,包括如下步骤:

2.根据权利要求1所述的基于文本引导的图像超分辨方法,其特征在于,步骤S1中,使用CUB和CelebA数据集制作高分辨率图像块与低分辨率图像块训练集和测试集,其中CUB为一种公开的鸟类数据集,其中每张图像均提供了图像的文本信息;CelebA为一种公开的人脸数据集,其中每张图像均提供了图像的文本信息;

3.根据权利要求2所述的基于文本引导的图像超分辨方法,其特征在于,步骤S1中,构建的网络模型是由多种模块组成的,分别为图像编码器、迭代细化生成器、预训练的文本编码器、预训练的CLIP网络、深度图像融合模块以及提示预测器模块;

4.根据权利要求3所述的基于文本引导的图像超分辨方法,其特征在于,所述预训练的文本编码器是使用的CLIP文本编码器,用于获取文本特征信息,得到的是1x15的特征向量。

5.根据权利要求3所述的基于文本引导的图像超分辨方法,其特征在于,所述的网络模型中,

6.根据权利要求3所述的基于文本引导的图像超分辨方法,其特征在于,使用CLIP-VIT32:CLIP-ViT32模型的网络架构主要由两部分组成:一个是视觉处理器,采用了VisionTransformer(ViT)的编码器;另一个是文本处理器,采用了一个简单的前馈神经网络;这两部分共同组成了CLIP-ViT32模型,使其能够同时处理图像和文本数据。

7.根据权利要求3所述的基于文本引导的图像超分辨方法,其特征在于,所述多模态融合通过仿射变换来实现,其主要方式是将文本特征向量经过两个多层感知器,得到通道级的缩放和偏移,使用这两个参数对图像特征通道进行缩放偏移得到融合后的文本信息特征,在每一次融合后,使用函数Rule对其进行非线性变换,使得融合后的图像特征更加复杂,在使用文本向量之前,使用softmax()函数对其进行权重的重新计算,具体表示如公式(3)所示:

8.根据权利要求3所述的基于文本引导的图像超分辨方法,其特征在于,使用基于CLIP模型的判别器,首先使用CLIP网络对图像特征进行提取,然后将提取到的多层特征信息进行进一步的收集、融合,用来做对抗损失,对抗损失的表达如公式(4)所示:

9.根据权利要求3所述的基于文本引导的图像超分辨方法,其特征在于,在步骤S3中,采用Adam优化算法,其中设置α=0.0001去训练网络;采用梯度下降法更新网络参数,用公式(5)表示:

10.根据权利要求3所述的基于文本引导的图像超分辨方法,其特征在于,生成网络的损失函数包含三个部分:L1损失,感知损失和生成对抗损失,具体表达式如公式(6)所示:

...

【技术特征摘要】

1.一种基于文本引导的图像超分辨方法,其特征在于,包括如下步骤:

2.根据权利要求1所述的基于文本引导的图像超分辨方法,其特征在于,步骤s1中,使用cub和celeba数据集制作高分辨率图像块与低分辨率图像块训练集和测试集,其中cub为一种公开的鸟类数据集,其中每张图像均提供了图像的文本信息;celeba为一种公开的人脸数据集,其中每张图像均提供了图像的文本信息;

3.根据权利要求2所述的基于文本引导的图像超分辨方法,其特征在于,步骤s1中,构建的网络模型是由多种模块组成的,分别为图像编码器、迭代细化生成器、预训练的文本编码器、预训练的clip网络、深度图像融合模块以及提示预测器模块;

4.根据权利要求3所述的基于文本引导的图像超分辨方法,其特征在于,所述预训练的文本编码器是使用的clip文本编码器,用于获取文本特征信息,得到的是1x15的特征向量。

5.根据权利要求3所述的基于文本引导的图像超分辨方法,其特征在于,所述的网络模型中,

6.根据权利要求3所述的基于文本引导的图像超分辨方法,其特征在于,使用clip-vit32:clip-vit32模型的网络架构主要由两部分组成:一个是视觉处理器,采用了visiontransformer(vit)的编码器;另一个是文本处理器,采用...

【专利技术属性】
技术研发人员:刘恒蒋志浩储岳中
申请(专利权)人:安徽工业大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1