一种真实世界图像去雾方法技术

技术编号:42707544 阅读:16 留言:0更新日期:2024-09-13 12:00
本发明专利技术提出了一种创新的真实世界图像去雾方法,通过构建Colabator框架,有效解决了色彩失真和配对数据不足的问题。该方法采用迭代均值教师框架,整合合作展开网络CORUN或深度梯度展开网络DGUN架构,实现教师和学生网络的协同训练。利用合成数据集预训练教师网络,然后在真实世界无标签数据集上生成高质量伪标签,指导学生网络的训练。学生网络在教师网络生成的伪标签基础上,通过多阶段迭代优化,学习有效去除图像中的雾霾,并在每个迭代中根据损失函数更新权重,最小化输出与目标无雾图像之间的差异。实验证明,本发明专利技术在真实世界的去雾任务上性能卓越,显著提升了去雾后图像的色彩和细节质量,增强了模型的泛化能力,超越了现有技术。

【技术实现步骤摘要】

本专利技术涉及计算机图像处理技术,特别是涉及一种真实世界图像去雾方法


技术介绍

1、合成雾霾和真实雾霾分布之间的不一致性往往阻碍了现有基于学习的去雾方法有效地去除真实世界图像中的雾霾。因此,人们越来越重视解决特定于真实世界去雾的挑战。鉴于真实雾霾的特性,ridcp和wang等人提出了新的雾霾合成流程。然而,仅依赖合成数据限制了模型在真实世界去雾场景中的鲁棒性。鉴于合成雾霾和真实雾霾之间的分布差异,cdd-gan、d4、shao等人和li等人利用cyclegan进行去雾。然而,gan训练固有的挑战常常导致生成的图像出现伪影。一些方法结合合成和真实世界的数据,应用无监督损失来监督真实世界去雾学习。然而,这些损失缺乏足够的精确性,导致结果不理想。其他方法利用伪标签,但错误的伪标签会降低质量。

2、深度展开网络(deep unfolding networks,duns)融合了基于模型的方法和基于学习的方法,因此相比于传统的基于学习的方法,提供了更好的可解释性和灵活性。越来越多地,duns被用于各种图像任务,包括图像超分辨率、压缩感知、高光谱图像重建和本文档来自技高网...

【技术保护点】

1.一种真实世界图像去雾方法,其特征在于,包括:

2.如权利要求1所述的真实世界图像去雾方法,其特征在于,所述CORUN包括多个阶段,每个阶段包括传输和场景梯度下降模块T&SGDM以及配对合作近端映射模块T&S-CPMM;所述T&SGDM和T&S-CPMM协同工作,对大气散射模型ASM和图像场景特征进行建模,以自适应地捕捉和恢复场景中的全局复合特征。

3.如权利要求2所述的真实世界图像去雾方法,其特征在于,所述CORUN的实施方法包括:给定有雾图像,初始化透射率图,并在梯度下降中简化大气光的计算,做隐式估计,以便专注于场景的详细表征...

【技术特征摘要】

1.一种真实世界图像去雾方法,其特征在于,包括:

2.如权利要求1所述的真实世界图像去雾方法,其特征在于,所述corun包括多个阶段,每个阶段包括传输和场景梯度下降模块t&sgdm以及配对合作近端映射模块t&s-cpmm;所述t&sgdm和t&s-cpmm协同工作,对大气散射模型asm和图像场景特征进行建模,以自适应地捕捉和恢复场景中的全局复合特征。

3.如权利要求2所述的真实世界图像去雾方法,其特征在于,所述corun的实施方法包括:给定有雾图像,初始化透射率图,并在梯度下降中简化大气光的计算,做隐式估计,以便专注于场景的详细表征及体积雾与场景的关系;基于大气散射模型公式,定义合作去雾能量函数,引入正则化项模拟先验知识,并加入辅助变量近似透射率图和去雾图像;在透射率优化阶段,根据前一迭代的去雾图像和透射率图更新透射率图,利用类编码器-解码器结构的神经网络构建辅助变量和透射率图间的近端映射;场景优化阶段,依据更新后的辅助变量和透射率图来更新去雾图像,使用结构相似但输入不同的近端映射模块;通过迭代更新,利用学习得到的参数自适应控制网络在迭代过程中的更新,直至满足停止条件或达到预定迭代次数。

4.如权利要求2或3所述的真实世界图像去雾方法,其特征在于,所述配对合作近端映射模块t&s-cpmm包括传输和场景t-cpmm与场景s-cpmm,二者共享相同的结构,该...

【专利技术属性】
技术研发人员:李秀方承煜何春明唐龙翔
申请(专利权)人:清华大学深圳国际研究生院
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1