美颜处理方法、系统、存储介质和终端设备技术方案

技术编号:28626413 阅读:17 留言:0更新日期:2021-05-28 16:22
本发明专利技术公开了一种美颜处理方法、系统、存储介质和终端设备,方法包括以下步骤:获取待处理图像;对待处理图像分别进行祛痘、磨皮、美白和滤镜处理,生成目标图像;其中,采用预先训练的生成式对抗网络对待处理图像进行滤镜处理;生成式对抗网络的训练步骤包括:获取若干张训练图像作为训练集;采用训练集计算生成式对抗网络中的生成式对抗网络目标函数、距离函数和颜色损失函数;根据生成式对抗网络目标函数、距离函数和颜色损失函数的计算结果计算目标参数;将生成式对抗网络的参数更新为目标参数。本发明专利技术能避免出现破坏原图像的情况,从而在一定程度上提供高质量的保持原图细节特征的自然图像。本发明专利技术可广泛应用于图像处理技术领域。

【技术实现步骤摘要】
美颜处理方法、系统、存储介质和终端设备
本专利技术涉及图像处理
,尤其是一种美颜处理方法、系统、存储介质和终端设备。
技术介绍
美颜主要涉及的技术多种多样,例如磨皮、美白、祛痘和滤镜等算法。其中,滤镜又有多种实现方法。目前,滤镜特效有基于调色和基于空间位置变换的方法。随着深度学习的兴起,在滤镜处理中出现了各种风格转换、对象变形和图像增强等技术。例如,基于深度卷积神经网络的图像增强技术,其通过将手机照片作为输入,将单反相机拍出的高质量照片作为目标,通过生成对抗网络端到端的方式训练一个特征映射,在融合多种损失函数例如内容、纹理、颜色和细节等,实现不同的图像滤镜目的,使得将手机照片生成具有单反相机质量的图片。但是,目前生成对抗的方法在应用过程中存在明显的不足,例如,基于深度卷积神经网络的图像增强技术,对于低对比度的图像和孤立的噪声点,增强后噪声点将会被放大,从而破坏原图像;基于循环一致性技术,针对不配对图像域间风格迁移和转换,会生成和原图偏差较大不同风格的图像,因而对精细的颜色微弱校正而言,比较困难。
技术实现思路
本专利技术旨在至少解决现有技术中存在的技术问题之一。为此,本专利技术提出一种美颜处理方法、系统、存储介质和终端设备,能够在一定程度上提供高质量的保持原图细节特征的自然图像。根据本专利技术的第一方面实施例的一种美颜处理方法,包括以下步骤:获取待处理图像;对所述待处理图像分别进行祛痘、磨皮、美白和滤镜处理,生成目标图像;其中,采用预先训练的生成式对抗网络对所述待处理图像进行滤镜处理;所述生成式对抗网络的训练步骤包括:获取若干张训练图像作为训练集;采用所述训练集计算所述生成式对抗网络中的生成式对抗网络目标函数、距离函数和颜色损失函数;根据所述生成式对抗网络目标函数、距离函数和颜色损失函数的计算结果计算目标参数;将所述生成式对抗网络的参数更新为所述目标参数。根据本专利技术实施例的一种美颜处理方法,至少具有如下有益效果:本实施例通过先采用由若干张训练图像组成的训练集计算生成式对抗网络中的生成式对抗网络目标函数、距离函数和颜色损失函数,接着根据生成式对抗网络目标函数、距离函数和颜色损失函数的计算结果计算目标参数,并将生成式对抗网络的参数更新为目标参数,然后对待处理图像分别进行祛痘、磨皮、美白处理,并采用更新为目标参数的生成式对抗网络对待处理图像进行滤镜处理后得到目标图像,避免出现破坏原图像的情况,从而在一定程度上提供高质量的保持原图细节特征的自然图像。根据本专利技术的一些实施例,所述生成式对抗网络包括编解码生成网络和判别网络,所述编解码生成网络包括若干个编码单元和若干个解码单元;所述编码单元对输入图像进行压缩,提取高层次语义特征;所述解码单元对输入图像进行上采样后与解码单元对所述输入图像处理得到的信息进行结合,得到输入图像的空间维度和细节。根据本专利技术的一些实施例,所述若干张训练图像包括原图像和目标真值图像;所述生成式对抗网络目标函数如公式1:其中,LcGAN(G,D)为生成式对抗网络目标函数值;G表示编解码生成网络;D表示判别网络;x表示原图像;y表示目标真值图像;z表示随机噪声;和分别表示关于(x,y)和(x,z)的数学期望;pdata(x,y)表示关于(x,y)的联合数据分布;所述距离函数如公式2所示:其中,LL1(G)为距离函数值;表示关于((x,y),z)的数学期望;所述颜色损失函数如公式3所示:其中,Lcolor(G)为颜色损失值;[G(x,z)]b和Yb分别为生成图像G(x,z)和目标真值图像y高斯滤波处理后的结果;所述目标参数的计算公式如公式4所示:其中,G*为目标参数值;G表示编解码生成网络;D表示判别网络;LcGAN(G,D)为生成式对抗网络目标函数值;LL1(G)为距离函数值;Lcolor(G)为颜色损失值;λ为平衡损失权重。根据本专利技术的一些实施例,所述对所述待处理图像进行祛痘处理这一步骤,包括:提取所述待处理图像的人脸关键点;根据所述人脸关键点确定人脸椭圆区域;构建所述人脸椭圆区域的掩码图像;对所述待处理图像灰度化;将灰度化后的图像与所述掩码图像进行相与计算,得到人脸部位图像;对所述人脸部位图像依次进行二值化操作和连通域分析,得到孤立点区域;根据所述孤立点区域确定痘斑的位置坐标;根据所述位置坐标对所述待处理图像进行修复。根据本专利技术的一些实施例,所述对所述待处理图像进行磨皮处理这一步骤,其具体为:采用表面滤波算法对所述待处理图像进行磨皮处理。根据本专利技术的一些实施例,所述对所述待处理图像进行美白处理这一步骤,包括:采用对数曲线公式构建映射表;根据所述映射表对所述待处理图像进行选择性增强区域。根据本专利技术的第二方面实施例的一种美颜处理系统,包括:获取模块,用于获取待处理图像;处理模块,用于对所述待处理图像分别进行祛痘、磨皮、美白和滤镜处理,生成目标图像;其中,采用预先训练的生成式对抗网络对所述待处理图像进行滤镜处理;所述生成式对抗网络的训练步骤包括:获取若干张训练图像作为训练集;采用所述训练集计算所述生成式对抗网络中的生成式对抗网络目标函数、距离函数和颜色损失函数;根据所述生成式对抗网络目标函数、距离函数和颜色损失函数的计算结果计算目标参数;将所述生成式对抗网络的参数更新为所述目标参数。根据本专利技术的第三方面实施例的一种美颜处理系统,包括:至少一个存储器,用于存储程序;至少一个处理器,用于加载所述程序以执行第一方面实施例的美颜处理方法。根据本专利技术的第四方面实施例的一种存储介质,其中存储有处理器可执行的程序,所述处理器可执行的程序在由处理器执行时用于执行第一方面实施例的美颜处理方法。根据本专利技术的第五方面实施例的一种终端设备,所述终端设备通过第一方面实施例的美颜处理方法控制图像美颜处理过程。本专利技术的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本专利技术的实践了解到。附图说明下面结合附图和实施例对本专利技术做进一步的说明,其中:图1为本专利技术实施例的一种生成式对抗网络的训练方法的流程图;图2为本专利技术实施例的编解码生成网络的模块框图;图3为本专利技术实施例的判别网络的模块框图;图4为本专利技术实施例的一种美颜处理方法的流程图。具体实施方式下面详细描述本专利技术的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本专利技术,而不能理解为对本专利技术的限制。在本专利技术的描述中,若干的含义是一个以上,多个的含义是两个以上,大于、小于、超过等本文档来自技高网...

【技术保护点】
1.一种美颜处理方法,其特征在于,包括以下步骤:/n获取待处理图像;/n对所述待处理图像分别进行祛痘、磨皮、美白和滤镜处理,生成目标图像;/n其中,采用预先训练的生成式对抗网络对所述待处理图像进行滤镜处理;所述生成式对抗网络的训练步骤包括:/n获取若干张训练图像作为训练集;/n采用所述训练集计算所述生成式对抗网络中的生成式对抗网络目标函数、距离函数和颜色损失函数;/n根据所述生成式对抗网络目标函数、距离函数和颜色损失函数的计算结果计算目标参数;/n将所述生成式对抗网络的参数更新为所述目标参数。/n

【技术特征摘要】
1.一种美颜处理方法,其特征在于,包括以下步骤:
获取待处理图像;
对所述待处理图像分别进行祛痘、磨皮、美白和滤镜处理,生成目标图像;
其中,采用预先训练的生成式对抗网络对所述待处理图像进行滤镜处理;所述生成式对抗网络的训练步骤包括:
获取若干张训练图像作为训练集;
采用所述训练集计算所述生成式对抗网络中的生成式对抗网络目标函数、距离函数和颜色损失函数;
根据所述生成式对抗网络目标函数、距离函数和颜色损失函数的计算结果计算目标参数;
将所述生成式对抗网络的参数更新为所述目标参数。


2.根据权利要求1所述的一种美颜处理方法,其特征在于,所述生成式对抗网络包括编解码生成网络和判别网络,所述编解码生成网络包括若干个编码单元和若干个解码单元;
所述编码单元对输入图像进行压缩,提取高层次语义特征;
所述解码单元对输入图像进行上采样后与解码单元对所述输入图像处理得到的信息进行结合,得到输入图像的空间维度和细节。


3.根据权利要求2所述的一种美颜处理方法,其特征在于,所述若干张训练图像包括原图像和目标真值图像;所述生成式对抗网络目标函数如公式1:



其中,LcGAN(G,D)为生成式对抗网络目标函数值;G表示编解码生成网络;D表示判别网络;x表示原图像;y表示目标真值图像;z表示随机噪声;和分别表示关于(x,y)和(x,z)的数学期望;pdata(x,y)表示关于(x,y)的联合数据分布;
所述距离函数如公式2所示:



其中,LL1(G)为距离函数值;表示关于((x,y),z)的数学期望;
所述颜色损失函数如公式3所示:



其中,Lcolor(G)为颜色损失值;[G(x,z)]b和Yb分别为生成图像G(x,z)和目标真值图像y高斯滤波处理后的结果;
所述目标参数的计算公式如公式4所示:



其中,G*为目标参数值;G表示编解码生成网络;D表示判别网络;LcGAN(G,D)为生成式对抗网络目标函数值;LL1(G)为距离函数值;Lcolor(G)为颜色损失值;λ为平衡损失权重。


4.根据权利要...

【专利技术属性】
技术研发人员:于鹏王娇朱锦钊
申请(专利权)人:广州方图科技有限公司
类型:发明
国别省市:广东;44

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1