The invention relates to a super-resolution method for image texture enhancement based on a depth feature translation network, belonging to the field of computer vision technology. Firstly, the training data are processed, and then the network structure model is designed, which includes super-resolution reconstruction network, fine-grained texture feature extraction network and discriminant network. Then, a loss function for training network is designed by combining various loss functions. The network structure model is trained with the processed training data, and a super-resolution reconstruction network with texture enhancement function is obtained. Finally, low-resolution images are input into the super-resolution reconstruction network, and high-resolution images are reconstructed. This method can extract image texture information under finer granularity, and uses a combination of loss functions. Compared with other methods, this method not only guarantees loyalty to the original image, but also restores texture feature information to make the picture clearer. This method can be applied to any picture with good results and good universality.
【技术实现步骤摘要】
一种基于深度特征翻译网络的图片纹理增强超分辨率方法
本专利技术涉及一种基于深度特征翻译网络的图片纹理增强超分辨率方法,尤其涉及一种基于被称作深度特征翻译网络的卷积神经网络、运用多种损失函数训练来增强图片纹理信息的超分辨率方法,属于计算机视觉
技术介绍
在互联网时代,存在着大量的低分辨率图片。此外,许多高分辨率图片因为尺寸和存储空间过大,在传输过程中被压缩,也会产生低分辨率图片。低分辨率图片质量不高、尺寸太小。使用超分辨率方法,能够将低分辨率图片重建为高分辨率图片,因而在军事、医学、教育等诸多领域有着广泛的应用前景。传统的超分辨率方法,包括插值、滤波、基于实例和基于字典学习的方法。近年来,以卷积神经网络为主的深度学习也被应用到超分辨率领域中来。无论是传统的超分辨率方法,还是近几年的基于深度学习的超分辨率方法,往往采用降低均方误差的优化目标,存在重建图像过于平滑和模糊的问题。为了解决这一问题,一些研究人员开始将生成对抗网络引入超分辨率领域,尝试生成更为真实的高分辨率图片。但是,单独基于生成对抗网络的方法得到的图片往往存在噪点较多、纹理单一和不忠于原图的缺点。
技术实现思路
本专利技术的目的是为了克服现有技术的不足,提出一种基于深度特征翻译网络的图片纹理增强超分辨率方法,能够获得纹理更加丰富、更加清晰真实的高分辨率图片。本方法包括以下步骤:步骤1:处理训练数据。在公共数据集上获取高分辨率图片,作为训练数据集。为充分利用图片资源,可采用数据增强方式增加图片个数。为了减少计算量,所有图片被裁剪成固定尺寸的图片块,所述尺寸不能小于96×96。然后,将所有图片块通 ...
【技术保护点】
1.一种基于深度特征翻译网络的图片纹理增强超分辨率方法,其特征在于,包括以下步骤:步骤1:处理训练数据;在公共数据集上获取高分辨率图片,作为训练数据集;为减少计算量,所有图片被裁剪成固定尺寸的图片块,所述尺寸不能小于96×96;然后,将所有图片块通过插值方法,按照比例尺为×2依次进行下采样,得到各级对应的图片,各级图片按照尺寸由小到大被命名为ILR,Ilabel‑×2,…,Ilabel‑×2
【技术特征摘要】
1.一种基于深度特征翻译网络的图片纹理增强超分辨率方法,其特征在于,包括以下步骤:步骤1:处理训练数据;在公共数据集上获取高分辨率图片,作为训练数据集;为减少计算量,所有图片被裁剪成固定尺寸的图片块,所述尺寸不能小于96×96;然后,将所有图片块通过插值方法,按照比例尺为×2依次进行下采样,得到各级对应的图片,各级图片按照尺寸由小到大被命名为ILR,Ilabel-×2,…,Ilabel-×2n;步骤2:设计网络结构模型;网络结构模型共包含三个网络:超分辨率重建网络S、细粒度纹理特征提取网络φ、判别网络D;其中,超分辨率重建网络采用拉普拉斯金字塔多级重建结构,如果金字塔有N级,则超分辨率比例尺即为2N;整个网络结构由以端到端训练的深度卷积神经网络构成;根据拉普拉斯金字塔,超分辨率重建网络S分为两路分支:差图像生成,粗图像生成;最小尺寸的低分辨率图片块ILR输入到超分辨率重建网络S,经过多级重建映射生成高分辨率图片,该映射表达为:其中,Ftranslate,θ(·)、Fupsample,θ(·)分别表示特征翻译层和上采样层;θ为特征翻译层和上采样层的参数,包括权值w和偏置值b;Convinput(·)和Convoutput(·)分别表示输入和输出卷积层;表示经过超分辨率×2n后得到的图片;IHR×2和IHR×4为各级中间结果;特征翻译层能将低分辨率图像特征翻译成差图像特征;细粒度纹理特征提取网络包括细粒度纹理提取层和预训练网络,其建立的映射由以下公式表示:t=φ(I)(2)其中,φ(·)表示细粒度纹理特征提取网络,t表示经过细粒度纹理特征提取网络提取的特征;I表示输入图片块,包含训练集中的真实高分辨率图片块和重建得到的高分辨率图片块;判别网络由卷积层和全连接层构成,输入为图片,输出为输入图片是否真实的概率,其建立的映射由以下公式表示:p=D(I)(3)其中,p表示判别网络的输出;D(·)表示判别网络;I表示输入图片块,包含训练集中的真实高分辨率图片块和重建得到的高分辨率图片块;步骤3:设计用于训练网络的损失函数;采用多种损失函数相结合,训练网络的损失函数共分为三部分:内容损失函数Lcontent、细粒度纹理损失函数Ltexture和对抗损失函数Ladv;在训练过程中,首先用内容损失函数Lcontent进行预训练,然后用三种损失函数进行训练;其中,总体损失函数Loss表示如下:Loss=Lcontent+λ1×Ltexture+λ2×Ladv(4)λ1和λ2分别为细粒度纹理损失函数Ltexture和对抗损失函数Ladv的权重;内容损失函数Lcontent采用C...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。