【技术实现步骤摘要】
一种联合单目深度估计的深度图像超分辨率重建方法
[0001]本专利技术属于图像处理
,涉及一种联合单目深度估计的深度图像超分辨率重建方法。
技术介绍
[0002]便携式消费级深度相机的出现和普及,为准确快速地获取场景深度提供了极大的便利。但是,由于当前深度相机成像能力的限制,深度图像的分辨率通常较低。面对诸多应用领域对高质量深度图像的需求,深度图像超分辨率重建技术作为解决方案获得了广泛关注。深度图像超分辨率重建是在不改变深度相机的前提下,通过算法恢复出相机截止频率以外的高频信息,同时改善成像时的模糊现象,并有效抑制图像中的随机噪声,从而重建出高质量和高分辨率的深度图像。近年来,随着深度学习的快速发展,该任务的性能得到了很大提升。在实际应用中,高分辨率的彩色图像易于获得,且与深度图像具有很强的结构相似性,因而可以为深度图像超分辨率重建提供一些先验信息。Hui等
[1]设计了多尺度引导的卷积神经网络,将从彩色图像中提取的丰富层次特征用于改善深度图像超分辨率重建过程中图像的模糊现象。Huang等
[2]提出了一种具有金字塔结构的深层稠密残差网络,通过密集连接和残差学习,充分利用了多尺度特征来预测高频残差,实现了深度图像的超分辨率重建。Guo等
[3]提出了一种层次化特征驱动的残差学习深度图像超分辨重建方法,借助层次化的颜色引导,并通过残差U
‑
Net结构提取深度图像的多级层次化特征表示,实现了深度图像的超分辨重建。Wen等
[4]提出了一种颜色引导的由粗到细的深度图像 ...
【技术保护点】
【技术特征摘要】
1.一种联合单目深度估计的深度图像超分辨率重建方法,其特征在于:所述联合单目深度估计的深度图像超分辨率重建方法基于联合单目深度估计的深度图像超分辨率重建网络;所述联合单目深度估计的深度图像超分辨率重建网络包括:两个子网络;所述两个子网络为:单目深度估计子网络和深度图像超分辨率重建子网络;所述单目深度估计子网络和深度图像超分辨率重建子网络的关联通过桥接器实现;所述联合单目深度估计的深度图像超分辨率重建方法包括以下步骤:S1、将低分辨率深度图像输入所述深度图像超分辨率重建子网络,将相应于低分辨率深度图像对应的高分辨率彩色图像输入所述单目深度估计子网络;S2、对所述深度图像超分辨率重建子网络和所述单目深度估计子网络同时进行训练;S3、所述深度图像超分辨率重建子网络输出高分辨率重建深度图像,并将所述高分辨率重建深度图像作为最终输出。2.如权利要求1所述的联合单目深度估计的深度图像超分辨率重建方法,其特征在于:所述单目深度估计子网络和深度图像超分辨率重建子网络均采用编码器
‑
解码器的结构形式;所述桥接器包括:高频注意力桥接器和内容引导桥接器;所述高频注意力桥接器应用于两个子网络的编码器的编码阶段;所述内容引导桥接器应用于两个子网络的解码器的解码阶段;单目深度估计子网络将从高分辨率彩色图像学习到的高频信息通过高频注意力桥接器,为深度图像超分辨率重建子网络提供颜色指导;深度图像超分辨率重建子网络在深度特征空间通过内容引导桥接器为单目深度估计子网络提供内容引导。3.如权利要求2所述的联合单目深度估计的深度图像超分辨率重建方法,其特征在于:所述高频注意力桥接器利用注意力机制,从单目深度估计子网络的原始特征中筛选出高频信息,并以此作为引导特征,对深度图像超分辨率重建子网络的编码器特征进行指导。4.如权利要求3所述的联合单目深度估计的深度图像超分辨率重建方法,其特征在于:所述得到引导特征的具体步骤如下:首先,使用平均池化和反卷积运算对单目深度估计子网络的原始特征进行模糊操作,如式(1)所示,其中,为单目深度估计子网络的编码器第i层的原始特征,为单目深度估计子网络的编码器第i层的模糊特征,表示:对进行平均池化操作,表示:对进行反卷积操作;然后,通过将原始特征与模糊特征相减,以获得高频信息,进而生成高频信息的注意力,如式(2)所示,
其中,为单目深度估计子网络的编码器第i层的高频注意力,表示:对进行带参数的修正线性单元变换操作;接着,使用获得的高频注意力对单目深度估计子网络的原始特征进行修正和优化,通过残差连接,最终得到优化后的引导特征,如式(3)所示,其中,为单目深度估计子网络的编码器第i层优化后的引导特征。5.如权利要求4所述的联合单目深度估计的深度图像超分辨率重建方法,其特征在于:对深度图像超分辨率重建子网络的编码器特征进行指导的具体步骤如下:首先,将引导特征与深度图像超分辨率重建子网络的编码器相应层的特征在通道维度级联,以生成编码器该层的复合特征然后,引入一个注意力块;所述注意力块包括:一个通道注意力和一个空间注意力;所述通道注意力用于:学习每个特征通道的重要性;所述空间注意力用于:突出显示特征图中的重要位置,上述过程表述为...
【专利技术属性】
技术研发人员:丛润民,唐麒,盛荣晖,张晨,何凌志,赵耀,
申请(专利权)人:北京交通大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。