【技术实现步骤摘要】
一种图像去噪模型的训练方法及系统
[0001]本专利技术涉及数字图像处理和计算机视觉领域,特别是涉及一种图像去噪模型的训练方法及系统。
技术介绍
[0002]目前,图像去噪是图像处理和计算机视觉领域中的重要任务。基于深度学习的图像去噪方法逐渐兴起,但这些方法可能难以很好地泛化到真实世界的噪声场景中。为克服这些问题,研究者尝试设计训练真实世界噪声
‑
干净图像对的监督方法模型进行去噪。
[0003]然而,为了获得高质量的噪声
‑
干净图像对,需要在严格的环境下进行拍摄。另外,拍摄得到的干净图像不一定总是可用,而且实际数据集中的干净图像也可能存在不可靠的情况。
技术实现思路
[0004]本专利技术的目的是提供一种不依赖真实世界干净图像的图像去噪模型的训练方法及系统。
[0005]本专利技术提供了一种图像去噪模型的训练方法,包括:
[0006]步骤1:将噪声图像数据和真实世界图像数据输入至学生网络,得到噪声图像去噪数据和第一真实世界图像去噪数据;所述噪声图像数据为样本图像添加伪噪声后的图像数据;所述学生网络为基于UDNet网络框架的去噪网络;
[0007]步骤2:将所述真实世界图像数据输入至教师网络,得到第二真实世界图像去噪数据;所述教师网络为基于UDNet网络框架的去噪网络;
[0008]步骤3:根据所述噪声图像去噪数据、所述第一真实世界图像去噪数据和所述第二真实世界图像去噪数据,确定所述学生网络的降噪损失;所述降噪损失包括去噪损失和 ...
【技术保护点】
【技术特征摘要】
1.一种图像去噪模型的训练方法,其特征在于,包括:步骤1:将噪声图像数据和真实世界图像数据输入至学生网络,得到噪声图像去噪数据和第一真实世界图像去噪数据;所述噪声图像数据为样本图像添加伪噪声后的图像数据;所述学生网络为基于UDNet网络框架的去噪网络;步骤2:将所述真实世界图像数据输入至教师网络,得到第二真实世界图像去噪数据;所述教师网络为基于UDNet网络框架的去噪网络;步骤3:根据所述噪声图像去噪数据、所述第一真实世界图像去噪数据和所述第二真实世界图像去噪数据,确定所述学生网络的降噪损失;所述降噪损失包括去噪损失和一致性损失;所述去噪损失根据样本图像数据和所述噪声图像去噪数据确定;所述一致性损失根据所述第一真实世界图像去噪数据和所述第二真实世界图像去噪数据确定;步骤4:以所述降噪损失最小为目标,更新所述学生网络的权重参数;步骤5:根据更新后学生网络的权重参数,对所述教师网络的权重参数进行更新。2.根据权利要求1所述的训练方法,其特征在于,在步骤1之前,还包括:获取图像数据集;所述图像数据集包括所述真实世界图像数据和所述样本图像数据;将伪噪声数据加入到所述样本图像数据,得到所述噪声图像数据。3.根据权利要求1所述的训练方法,其特征在于,所述学生网络包括:第一编码器模块、第一解码器模块和第一上下文连接模块;所述第一编码器模块,用于分层逐步缩小输入至所述第一编码器模块的图像的尺寸,得到第一特征图;所述第一解码器模块,用于根据所述第一特征图,得到去噪图像;所述第一上下文连接模块,与所述第一编码器模块和所述第一解码器模块连接,用于所述第一编码器模块和所述第一解码器模块中信息的融合。4.根据权利要求1所述的训练方法,其特征在于,所述教师网络包括:第二编码器模块、第二解码器模块和第二上下文连接模块;所述第二编码器模块,用于分层逐步缩小输入至所述第二编码器模块的图像的尺寸,得到第二特征图;所述第二解码器模块,用于根据所述第二特征图,得到去噪图像;所述第二上下文连接模块,与所述第二编码器模块和所述第二解码器模块连接,用于所述第二编码器模块和所述第二解码器模块中信息的融合。5.根据权利要求1所述的训练方法,其特征在于,所述降噪损失的损失函数表达式,具体如下:其中,L
total
为降噪损失,A和R分别表示噪声图像数据的集合和真实世界图像数据的集合,N和M分别表示每次迭代时噪声图像数据和真实世界图像数据的数量,L
s
(x
i
)为第i次迭代时的去噪损失,L
c
(y
j
)为第i次迭代时的一致性损失数,x
i
第i次迭代时的样本图像数据,y
j
第i次迭代时的,λ为随迭代次数变化的系数。
6.根据权利要求1所述的训练方法,其特征在于,所述去噪损失的损...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。