一种图像去噪模型的训练方法及系统技术方案

技术编号:38539547 阅读:15 留言:0更新日期:2023-08-19 17:08
本发明专利技术公开了一种图像去噪模型的训练方法及系统,涉及数字图像处理和计算机视觉领域,方法包括:首先将噪声图像数据和真实世界图像数据输入至学生网络,得到噪声图像去噪数据和第一真实世界图像去噪数据;将真实世界图像数据输入至教师网络,得到第二真实世界图像去噪数据;根据得到的数据,确定学生网络的降噪损失;然后以降噪损失最小为目标,更新学生网络的权重参数;根据更新后学生网络的权重参数,对教师网络的权重参数进行更新。基于本发明专利技术的训练方法,在训练教师

【技术实现步骤摘要】
一种图像去噪模型的训练方法及系统


[0001]本专利技术涉及数字图像处理和计算机视觉领域,特别是涉及一种图像去噪模型的训练方法及系统。

技术介绍

[0002]目前,图像去噪是图像处理和计算机视觉领域中的重要任务。基于深度学习的图像去噪方法逐渐兴起,但这些方法可能难以很好地泛化到真实世界的噪声场景中。为克服这些问题,研究者尝试设计训练真实世界噪声

干净图像对的监督方法模型进行去噪。
[0003]然而,为了获得高质量的噪声

干净图像对,需要在严格的环境下进行拍摄。另外,拍摄得到的干净图像不一定总是可用,而且实际数据集中的干净图像也可能存在不可靠的情况。

技术实现思路

[0004]本专利技术的目的是提供一种不依赖真实世界干净图像的图像去噪模型的训练方法及系统。
[0005]本专利技术提供了一种图像去噪模型的训练方法,包括:
[0006]步骤1:将噪声图像数据和真实世界图像数据输入至学生网络,得到噪声图像去噪数据和第一真实世界图像去噪数据;所述噪声图像数据为样本图像添加伪噪声后的图像数据;所述学生网络为基于UDNet网络框架的去噪网络;
[0007]步骤2:将所述真实世界图像数据输入至教师网络,得到第二真实世界图像去噪数据;所述教师网络为基于UDNet网络框架的去噪网络;
[0008]步骤3:根据所述噪声图像去噪数据、所述第一真实世界图像去噪数据和所述第二真实世界图像去噪数据,确定所述学生网络的降噪损失;所述降噪损失包括去噪损失和一致性损失;所述去噪损失根据样本图像数据和所述噪声图像去噪数据确定;所述一致性损失根据所述第一真实世界图像去噪数据和所述第二真实世界图像去噪数据确定;
[0009]步骤4:以所述降噪损失最小为目标,更新所述学生网络的权重参数;
[0010]步骤5:根据更新后学生网络的权重参数,对所述教师网络的权重参数进行更新。
[0011]可选的,在步骤1之前,还包括:
[0012]获取图像数据集;所述图像数据集包括所述真实世界图像数据和所述样本图像数据;
[0013]将伪噪声数据加入到所述样本图像数据,得到所述噪声图像数据。
[0014]可选的,所述学生网络包括:第一编码器模块、第一解码器模块和第一上下文连接模块;
[0015]所述第一编码器模块,用于分层逐步缩小输入至所述第一编码器模块的图像的尺寸,得到第一特征图;
[0016]所述第一解码器模块,用于根据所述第一特征图,得到去噪图像;
[0017]所述第一上下文连接模块,与所述第一编码器模块和所述第一解码器模块连接,用于所述第一编码器模块和所述第一解码器模块中信息的融合。
[0018]可选的,所述教师网络包括:第二编码器模块、第二解码器模块和第二上下文连接模块;
[0019]所述第二编码器模块,用于分层逐步缩小输入至所述第二编码器模块的图像的尺寸,得到第二特征图;
[0020]所述第二解码器模块,用于根据所述第二特征图,得到去噪图像;
[0021]所述第二上下文连接模块,与所述第二编码器模块和所述第二解码器模块连接,用于所述第二编码器模块和所述第二解码器模块中信息的融合。
[0022]可选的,所述降噪损失的损失函数,具体如下:
[0023][0024]其中,L
total
为降噪损失,A和R分别表示噪声图像数据的集合和真实世界图像数据的集合,N和M分别表示每次迭代时噪声图像数据和真实世界图像数据的数量,L
s
(x
i
)为第i次迭代时的去噪损失,L
c
(y
j
)为第i次迭代时的一致性损失数,x
i
第i次迭代时的样本图像数据,y
j
第i次迭代时的,λ为随迭代次数变化的系数
[0025]可选的,所述去噪损失的损失函数表达式,具体如下:
[0026]L
s
(x)=||x

P
x
||1[0027]所述一致性损失的损失函数表达式,具体如下:
[0028]L
c
(y)=||S
y

T
y
||1[0029]其中,L
s
(x)为去噪损失,x为样本图像数据,P
x
为噪声图像去噪数据;||
·
||1为L1损失函数,L
c
(y)为一致性损失,S
y
为学生网络预测生成的第一真实世界图像去噪数据,T
y
为教师网络预测生成的第二真实世界图像去噪数据。
[0030]可选的,所述随迭代次数变化的系数λ的计算公式,具体如下:
[0031][0032]其中,t为当前迭代次数,t
max
为最大迭代次数,λ
max
为随迭代次数变化的系数λ的最大值。
[0033]可选的,所述步骤3,具体如下:
[0034]θ'
t
=ηθ'
t
‑1+(1

η)θ
t
[0035]其中,θ
t
为学生网络在第t次迭代训练时的参数,θ'
t
为教师网络在第t次迭代训练时的参数,θ'
t
‑1为教师网络在第t

1次迭代训练时的参数,η为平滑指数。
[0036]可选的,所述UDNet网络框架包括多尺度聚合注意力模块MSAA和多尺度线性交叉注意力模块MLCA。
[0037]本专利技术还提供了一种图像去噪模型的训练系统,包括:
[0038]学生网络降噪模块,用于将噪声图像数据和真实世界图像数据输入至学生网络,得到噪声图像去噪数据和第一真实世界图像去噪数据;所述噪声图像数据为样本图像添加伪噪声后的图像数据;所述学生网络为基于UDNet网络框架的去噪网络;
[0039]教师网络降噪模块,用于将所述真实世界图像数据输入至教师网络,得到第二真实世界图像去噪数据;所述教师网络为基于UDNet网络框架的去噪网络;
[0040]损失计算模块,用于根据所述噪声图像去噪数据、所述第一真实世界图像去噪数据和所述第二真实世界图像去噪数据,确定所述学生网络的降噪损失;所述降噪损失包括去噪损失和一致性损失;所述去噪损失根据样本图像数据和所述噪声图像去噪数据确定;所述一致性损失根据所述第一真实世界图像去噪数据和所述第二真实世界图像去噪数据确定;
[0041]学生网络参数更新模块,用于以所述降噪损失最小为目标,更新所述学生网络的权重参数;
[0042]教师网络参数更新模块,用于根据更新后学生网络的权重参数,对所述教师网络的权重参数进行更新。
[0043]根据本专利技术提供的具体实施例,本专利技术公开了以下技术效果:
[0044]本专利技术提供了一种图像去噪模型的训练本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种图像去噪模型的训练方法,其特征在于,包括:步骤1:将噪声图像数据和真实世界图像数据输入至学生网络,得到噪声图像去噪数据和第一真实世界图像去噪数据;所述噪声图像数据为样本图像添加伪噪声后的图像数据;所述学生网络为基于UDNet网络框架的去噪网络;步骤2:将所述真实世界图像数据输入至教师网络,得到第二真实世界图像去噪数据;所述教师网络为基于UDNet网络框架的去噪网络;步骤3:根据所述噪声图像去噪数据、所述第一真实世界图像去噪数据和所述第二真实世界图像去噪数据,确定所述学生网络的降噪损失;所述降噪损失包括去噪损失和一致性损失;所述去噪损失根据样本图像数据和所述噪声图像去噪数据确定;所述一致性损失根据所述第一真实世界图像去噪数据和所述第二真实世界图像去噪数据确定;步骤4:以所述降噪损失最小为目标,更新所述学生网络的权重参数;步骤5:根据更新后学生网络的权重参数,对所述教师网络的权重参数进行更新。2.根据权利要求1所述的训练方法,其特征在于,在步骤1之前,还包括:获取图像数据集;所述图像数据集包括所述真实世界图像数据和所述样本图像数据;将伪噪声数据加入到所述样本图像数据,得到所述噪声图像数据。3.根据权利要求1所述的训练方法,其特征在于,所述学生网络包括:第一编码器模块、第一解码器模块和第一上下文连接模块;所述第一编码器模块,用于分层逐步缩小输入至所述第一编码器模块的图像的尺寸,得到第一特征图;所述第一解码器模块,用于根据所述第一特征图,得到去噪图像;所述第一上下文连接模块,与所述第一编码器模块和所述第一解码器模块连接,用于所述第一编码器模块和所述第一解码器模块中信息的融合。4.根据权利要求1所述的训练方法,其特征在于,所述教师网络包括:第二编码器模块、第二解码器模块和第二上下文连接模块;所述第二编码器模块,用于分层逐步缩小输入至所述第二编码器模块的图像的尺寸,得到第二特征图;所述第二解码器模块,用于根据所述第二特征图,得到去噪图像;所述第二上下文连接模块,与所述第二编码器模块和所述第二解码器模块连接,用于所述第二编码器模块和所述第二解码器模块中信息的融合。5.根据权利要求1所述的训练方法,其特征在于,所述降噪损失的损失函数表达式,具体如下:其中,L
total
为降噪损失,A和R分别表示噪声图像数据的集合和真实世界图像数据的集合,N和M分别表示每次迭代时噪声图像数据和真实世界图像数据的数量,L
s
(x
i
)为第i次迭代时的去噪损失,L
c
(y
j
)为第i次迭代时的一致性损失数,x
i
第i次迭代时的样本图像数据,y
j
第i次迭代时的,λ为随迭代次数变化的系数。
6.根据权利要求1所述的训练方法,其特征在于,所述去噪损失的损...

【专利技术属性】
技术研发人员:王莞茹唐赫
申请(专利权)人:湖北工业大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1