一种使用色度损失函数训练的深度学习去噪方法技术

技术编号:38553458 阅读:10 留言:0更新日期:2023-08-22 20:58
本发明专利技术提供一种使用色度损失函数训练的深度学习去噪方法,包括:基于色度损失函数和重建损失函数,确定总损失函数;基于总损失函数,对去噪神经网络进行训练,获得去噪器;基于去噪器,对待处理图片进行去噪处理。本发明专利技术的使用色度损失函数训练的深度学习去噪方法,解决极低光环境下成像的大噪声图像在经过现有的神经网络去噪后仍包含大量彩色噪声斑块的技术问题。技术问题。技术问题。

【技术实现步骤摘要】
一种使用色度损失函数训练的深度学习去噪方法


[0001]本专利技术涉及图像处理
,特别涉及一种使用色度损失函数训练的深度学习去噪方法。

技术介绍

[0002]图像去噪是计算机视觉任务中的基础且重要的一环,它不仅影响人眼的视觉观感,对后续的高级视觉任务,如目标检测等,也至关重要。
[0003]近年来,随着神经网络的适应性越来越强,基于深度学习的去噪算法在处理低噪声图像时获得了良好的输出图像质量。然而,在恶劣的成像环境下恢复高质量图像对神经网络去噪器来说仍然极具挑战性。极低光环境下成像的大噪声图像在经过神经网络去噪后仍包含大量彩色噪声斑块,这严重影响了图像的视觉效果。

技术实现思路

[0004]本专利技术目的之一在于提供了一种使用色度损失函数训练的深度学习去噪方法,解决极低光环境下成像的大噪声图像在经过现有的神经网络去噪后仍包含大量彩色噪声斑块的技术问题。
[0005]本专利技术实施例提供的一种使用色度损失函数训练的深度学习去噪方法,包括:
[0006]基于色度损失函数和重建损失函数,确定总损失函数;
[0007]基于总损失函数,对去噪神经网络进行训练,获得去噪器;
[0008]基于去噪器,对待处理图片进行去噪处理。
[0009]优选的,色度损失函数计算公式如下:
[0010]L
chroma
=||TUV(output)

YUV(gt)||1;
[0011]式中,L
chroma
示色度损失函数;output表示去噪神经网络的输出图像;gt表示训练所用数据集中真实无噪声图像;YUV(output)表示去噪神经网络的输出图像对应的YUV图像;YUV(gt)表示训练所用数据集中真实无噪声图像对应的YUV图像;||YUV(output)

YUV(gt)||1表示去噪神经网络的输出图像对应的YUV图像与训练所用数据集中真实无噪声图像对应的YUV图像之间的L1损失。
[0012]优选的,重建损失函数计算公式如下:
[0013]L
RAW
=||output

gt||1or||output

gt||2;
[0014]式中,L
RAW
表示重建损失函数;output表示去噪神经网络的输出图像;gt表示训练所用数据集中真实无噪声图像;||output

gt||1表示去噪神经网络的输出图像与训练所用数据集中真实无噪声图像之间的L1损失;||output

gt||2表示去噪神经网络的输出图像与训练所用数据集中真实无噪声图像之间的L2损失。
[0015]优选的,基于色度损失函数和重建损失函数,确定总损失函数,包括:
[0016]L=γ*L
RAW
+(1

γ)*L
chroma

[0017]式中,L表示总损失函数;L
RAW
表示重建损失函数;L
chroma
表示色度损失函数;γ为超
参数。
[0018]优选的,基于去噪器,对待处理图片进行去噪处理,包括:
[0019]获取待处理图像的第一分类信息;
[0020]基于预设的编码化模板,确定待处理图像的第一分类信息对应的第一编码;
[0021]将第一编码与去噪器的适用分类集各个标准分类对应的第二编码进行匹配;
[0022]当存在匹配符合项时,将待处理图像输入去噪器;否则,输出去噪类型不匹配的提示信息。
[0023]优选的,去噪器的使用分类集的构建步骤如下:
[0024]获取去噪器训练时使用的各个图像的第二分类信息;
[0025]基于第二分类信息,对各个图像进行分组聚合,获取多个分组;
[0026]删除分组中图像的数量小于等于预设的阈值的分组,将剩余的各个分组分别作为一个构建项对应的数据组;
[0027]基于预设的编码化模板,对数据中的各个图像的第二分类信息进行编码化,获得第二编码;
[0028]计算各个数据组中各个图像对于其他图像的第二编码的总偏差;
[0029]将总偏差最低的图像对应的第二分类信息作为适用分类集中的一个标准分类。
[0030]优选的,使用色度损失函数训练的深度学习去噪方法,还包括:
[0031]获取去噪器的输出图像的评价信息;
[0032]当评价信息低于预设的评价阈值时,将输出图像及其对应的输入图像打包为待处理图像包;
[0033]将待处理图像包发送至多个专业图像处理组;
[0034]接收各个专业图像处理组反馈的图像包;
[0035]基于图像包,确定噪声模板;
[0036]提取预设的数量的用于去噪器训练的真实无噪声图像;
[0037]基于提取的真实无噪声图像和噪声模板,生成噪声图像;
[0038]将噪声图像添加进训练集中,对去噪器进行重新训练。
[0039]优选的,基于图像包,确定噪声模板,包括:
[0040]将各个图像包发送至除了其对应的专业图像处理组的其他专业图像处理组,获取其他专业图像处理组对于各个图像包的第一评分值;
[0041]提取各个图像包中的噪声模板;
[0042]基于各个图像包中的噪声模板,确定待处理图像包中输入图像对应的处理图像;
[0043]确定处理图像与输出图像之间的相似度;
[0044]基于相似度,确定差异值;
[0045]基于差异值和预设的差异值与第二评分值对应表,确定第二评分值;
[0046]基于第一评分值和第二评分值,确定评分总值;
[0047]将评分总值最大的图像包中噪声模板作为确定的噪声模板。
[0048]优选的,使用色度损失函数训练的深度学习去噪方法,在基于差异值和预设的差异值与第二评分值对应表,确定第二评分值,之前,还包括:
[0049]基于差异值对各个图像包进行筛选,删除异常的图像包;
[0050]其中,基于差异值对各个图像包进行筛选,删除异常的图像包,包括:
[0051]将差异值大于预设的差异阈值的图像包删除;
[0052]和/或,
[0053]计算各个差异值与其他各个差异值之间的差值的总和的绝对值,作为第一数据;
[0054]计算第一数据与数据包的总数的商,作为第二数据;
[0055]计算第二数据与差异值的比值,作为第三数据;
[0056]将第三数据大于预设的比值阈值的图像包删除。
[0057]优选的,获取去噪器的输出图像的评价信息,包括:
[0058]获取输出图像输入后期神经网络模型中处理的识别过程数据;
[0059]对识别过程数据进行特征提取,获取特征值;
[0060]将特征值作为评价信息。
[0061]本专利技术的其它本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种使用色度损失函数训练的深度学习去噪方法,其特征在于,包括:基于色度损失函数和重建损失函数,确定总损失函数;基于总损失函数,对去噪神经网络进行训练,获得去噪器;基于所述去噪器,对待处理图片进行去噪处理。2.如权利要求1所述的使用色度损失函数训练的深度学习去噪方法,其特征在于,所述色度损失函数计算公式如下:L
chroma
=||YUV(output)

YUV(gt)||1;式中,L
chroma
表示所述色度损失函数;output表示去噪神经网络的输出图像;gt表示训练所用数据集中真实无噪声图像;YUV(output)表示去噪神经网络的输出图像对应的YUV图像;YUV(gt)表示训练所用数据集中真实无噪声图像对应的YUV图像;||YUV(output)

YUV(gt)||1表示去噪神经网络的输出图像对应的YUV图像与训练所用数据集中真实无噪声图像对应的YUV图像之间的L1损失。3.如权利要求1所述的使用色度损失函数训练的深度学习去噪方法,其特征在于,所述重建损失函数计算公式如下:L
RAW
=||output

gt||1or||output

gt||2;式中,L
RAW
表示所述重建损失函数;output表示去噪神经网络的输出图像;gt表示训练所用数据集中真实无噪声图像;||output

gt||1表示去噪神经网络的输出图像与训练所用数据集中真实无噪声图像之间的L1损失;||output

gt||2表示去噪神经网络的输出图像与训练所用数据集中真实无噪声图像之间的L2损失。4.如权利要求1所述的使用色度损失函数训练的深度学习去噪方法,其特征在于,基于色度损失函数和重建损失函数,确定总损失函数,包括:L=γ*L
RAW
+(1

γ)*L
chroma
;式中,L表示总损失函数;L
RAW
表示重建损失函数;L
chroma
表示色度损失函数;γ为超参数,取值范围为[0,1]。5.如权利要求4所述的使用色度损失函数训练的深度学习去噪方法,其特征在于,所述基于所述去噪器,对待处理图片进行去噪处理,包括:获取所述待处理图像的第一分类信息;基于预设的编码化模板,确定所述待处理图像的第一分类信息对应的第一编码;将所述第一编码与所述去噪器的适用分类集各个标准分类对应的第二编码进行匹配;当存在匹配符合项时,将所述待处理图像输入所述去噪器;否则,输出去噪类型不匹配的提示信息。6.如权利要求5所述的使用色度损失函数训...

【专利技术属性】
技术研发人员:彭丽媛李文宏
申请(专利权)人:上海宇勘科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1