The invention relates to the technical field of image processing, and provides an image generation method and a terminal device. The method includes: constructing neural network model; establishing loss function according to the similarity relationship of brightness, contrast and structure between two images in the theory of structural similarity; acquiring sample image, and training the neural network model according to the sample image and the loss function; inputting the image to be processed into the trained neural network model, and generating the image to be processed A super-resolution image of an image. The invention integrates the idea of structural similarity theory into the process of constructing the loss function, improves the super-resolution technology by improving the loss function, can help improve the image quality, get the super-resolution image more in line with the human vision, and improve the quality stability of the generated super-resolution image.
【技术实现步骤摘要】
图像生成方法及终端设备
本专利技术涉及图像处理
,尤其涉及一种图像生成方法及终端设备。
技术介绍
目前超分辨图像处理技术有着非常广阔的应用,例如在图像传输方面,可以把图像在输入端进行降维处理,之后在输出端通过超分辨技术进行升维度处理,这样传输的数据量就能得到很大程度的降低,有利于提高传输速度和缓解网络传输压力;在图像存储方面,可以把图向进行降维处理之后储存,这样图片的大小将会降低,从而缓解储存的压力,待查看和应用这些图像的时候,再通过超分辨技术将这些图像进行升维处理,补充图片细节,得到高维度的图片。超分辨方法的核心是低分辨率图像到高分辨率图像的拟合。随着深度学习技术的不断发展,一些超分辨方法把神经网络应用于求解拟合函数中,使超分辨的效果得到了很大程度的提高。通过在训练过程中最小化生成的超分辨率图和原高分辨率图之间的差别,神经网络中的参数得以被训练,通过训练后的神经网络能够生成高质量的超分辨图像。如何衡量两图之间的差别是非常重要的,决定了生成的超分辨率图像的质量。现有的超分辨方法在衡量超分辨率图和原高分辨率图之间差别的时候,大都是在像素级别进行比较。例如,原高分辨率图为A,降维以后的低分辨图为B,通过超分辨技术生成的超分辨率图为C。在训练神经网络的过程中,损失函数定义为均方差(MSE,MeanSquareError)的形式,计算公式如下:其中,a和b为图像的高度和宽度。(x,y)为图像的位置坐标。以MSE来定义损失函数,有利于在评估算法的时候得到很好的PSNR(PeakSignal ...
【技术保护点】
1.一种图像生成方法,其特征在于,包括:/n构建神经网络模型;/n根据结构相似性理论中两幅图像之间亮度、对比度和结构的相似关系,建立损失函数;/n获取样本图像,并根据所述样本图像和所述损失函数对所述神经网络模型进行训练;/n将待处理图像输入训练后的神经网络模型,生成所述待处理图像的超分辨图像。/n
【技术特征摘要】
1.一种图像生成方法,其特征在于,包括:
构建神经网络模型;
根据结构相似性理论中两幅图像之间亮度、对比度和结构的相似关系,建立损失函数;
获取样本图像,并根据所述样本图像和所述损失函数对所述神经网络模型进行训练;
将待处理图像输入训练后的神经网络模型,生成所述待处理图像的超分辨图像。
2.如权利要求1所述的图像生成方法,其特征在于,所述样本图像包括原始图像和所述原始图像对应的低分辨率图像;所述低分辨率图像为将所述原始图像的分辨率降低后得到的图像;所述损失函数为:
Lossnew(A,C)=-l(A,C)-c(A,C)-s(A,C)
其中,A表示第一图像,C表示第二图像,l(A,C)为第一图像和第二图像之间的亮度对比函数;c(A,C)为第一图像和第二图像之间的对比度对比函数;s(A,C)为第一图像和第二图像之间的结构对比函数;其中第一图像为所述原始图像;第二图像为在训练过程中将所述原始图像对应的低分辨率图像输入所述神经网络模型后,所述神经网络模型输出的图像。
3.如权利要求2所述的图像生成方法,其特征在于,所述亮度对比函数为所述对比度对比函数为所述结构对比函数为
其中,μA为第一图像的像素平均值,μC为第二图像的像素平均值,σA为第一图像的像素标准差,σC为第二图像的像素标准差,σAσC为第一图像和第二图像的像素协方差;K1,K2和K3均为常量。
4.如权利要求2或3任一项所述的图像生成方法,其特征在于,所述根据所述样本图像和所述损失函数对所述神经网络模型进行训练包括:
将所述低分辨率图像输入所述神经网络模型,获取所述神经网络模型输出的第三图像;
根据所述原始图像的图像信息、所述第三图像的图像信息和所述损失函数计算第一数值,所述第一数值为当前神经网络模型对应的损失函数数值;
根据所述第一数值对所述神经网络模型的参数进行调整。
5.如权利要求4所述的图像生成方法,其特征在于,在所述根据所述第一数值对所述神经网络模型的参数进行调整之后,还包括:
将所述低分辨率图像输入调整后的神经网络模型,获取所述神经网络模型输出的第四图像;
根据所述原始图像的图像信息、所述第四图像的图像信息和所述损失函数计算第二数值,所述第二数值为调整后的神经网络模...
【专利技术属性】
技术研发人员:关婧玮,
申请(专利权)人:TCL集团股份有限公司,
类型:发明
国别省市:广东;44
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。