【技术实现步骤摘要】
一种智能立体图像去雾方法
[0001]本专利技术涉及深度学习和图像去雾领域,尤其涉及一种智能立体图像去雾方法。
技术介绍
[0002]有雾天气下,传感器的图像采集过程会受到大气颗粒散射的影响,导致采集的有雾图像存在对比度低、颜色失真和纹理细节丢失等问题。此类问题不仅会影响观看者的视觉感受,还会为很多计算机视觉应用带来挑战。作为计算机视觉的底层任务,图像去雾旨在滤除有雾图像中的雾以复原图像中的细节信息,在自动驾驶、视频监控和无人机航拍等领域具有广泛的应用。根据所处理数据的不同,图像去雾任务可以分为单图去雾任务和立体图像去雾任务。
[0003]立体图像由从不同位置和角度拍摄的左右视图组成,可以为观看者提供生动的立体视觉感知。为了恢复清晰的立体图像,一类做法基于单图去雾方法分别对有雾左右视图进行去雾。此类做法忽略了左右视图的视点间信息,难以保证去雾前后立体图像的深度一致性,且去雾效果仍有待提升。因此,研究立体图像去雾方法,有效挖掘左右视图的视点间信息,从而恢复高质量的清晰立体图像,具有重要的研究意义和应用价值。
[0004]近年来,随着深度学习和计算机视觉技术的不断发展,越来越多的研究者开始探索基于深度学习的立体图像去雾方法。Song等人提出了立体匹配和去雾同步网络SSMDN,该网络通过联合利用立体匹配模型和图像去雾模型,提高了重建图像的质量。Pang等人提出了立体细化去雾网络SRDNet,该网络以由粗糙到精细的方式实现立体图像去雾。然而,现有的立体图像去雾方法仅从左右视图匹配的区域中提取一致性信息,忽略了
【技术保护点】
【技术特征摘要】
1.一种智能立体图像去雾方法,其特征在于,所述方法包括:对于输入的有雾左右视图,构建特征提取模块分别提取有雾左右视图的特征;构建视差引导的雾感知机制,计算左右视图间的视差,引导网络感知场景中不同区域雾的分布;构建跨视图全局交互模块,通过提取视图间的全局相关性信息以增强特征;对特征提取模块、视差引导的雾感知机制和跨视图全局交互模块进行训练,训练过程中使用绝对误差损失函数和感知损失函数对网络的输出结果进行约束;输入有雾立体图像,挖掘视图间的全局相关性信息,利用视差关系引导网络对雾密度进行感知,输出清晰地立体图像。2.根据权利要求1所述的一种智能立体图像去雾方法,其特征在于,所述雾感知机制为:利用视差估计模型计算左视差图p
l
和右视差图p
r
,公式表达如下:p
l
,p
r
=M
p
(I
l
,I
r
)其中,M
p
表示视差估计模型;基于视差图p
l
和p
r
生成雾感知嵌入向量e
l
和e
r
,并将e
l
和e
r
与有雾左右视图的特征f
l
和f
r
进行融合;通过特征注意力实现雾感知嵌入向量e
l
,e
r
与有雾左右视图的特征f
l
,f
r
的自适应融合,公式表达如下:e
l
=Conv
l
(p
l
)e
r
=Conv
r
(p
r
)a
l
,b
l
=Split(Softmax(MLP(GAP(e
l
+f
l
))))a
r
,b
r
=Split(Softmax(MLP(GAP(e
r
+f
r
))))f
lh
=a
l
e
l
+b
l
f
l
+f
l
其中,Conv
l
(
·
)和Conv
r
(
·
)分别表示用于生成e
l
和e
r
的卷积层,a
l
、a
r
、b
l
和b
r
表示特征融合权重,GAP(
·
)表示全局平均池化操作,MLP(
·
)表示多层感知机,Softmax(
·
)表示softmax激活函数,Split(
·
)表示权重拆分操作,f
lh
和分别表示左右视图的雾密度感知特征。3....
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。