当前位置: 首页 > 专利查询>北京大学专利>正文

基于联合隐式图像函数的RGB图像引导深度图超分辨率方法技术

技术编号:31610200 阅读:21 留言:0更新日期:2021-12-29 18:38
本发明专利技术公布了一种基于联合隐式图像函数的RGB图像引导深度图超分辨率方法,建立用于深度图超分辨率图像恢复的深度神经网络模型,包含RGB图像编码器,深度图编码器以及JIIF解码器;采用隐式神经表示方法,建立适用于RGB引导的深度图超分辨率任务的联合隐式图像函数,对多模态输入进行建模;通过所建立深度神经网络模型的两个编码器从RGB图像以及输入的低分辨率深度图中分别提取特征;再通过JIIF解码器对高分辨率下的每个像素深度值进行预测并输出;实现基于联合隐式图像函数的RGB图像引导深度图超分辨率图像恢复。本发明专利技术方法在RGB图像引导的深度图像超分辨率恢复任务上取得了优于现有技术的图像恢复效果,具有较好的可解释性。释性。释性。

【技术实现步骤摘要】
基于联合隐式图像函数的RGB图像引导深度图超分辨率方法


[0001]本专利技术涉及一种基于联合隐式图像函数的RGB图像引导的深度图超分辨率(图像恢复)方法,可应用于RGB图像引导的深度图超分辨率任务,具体涉及一种联合隐式图像函数的定义以及一个用于从数据中学习此函数的深度神经网络模型,用于将低分辨率、含有噪声的深度图恢复为高分辨率、无噪声的深度图,属于计算机视觉图像处理


技术介绍

[0002]RGB图像引导的深度图超分辨率任务指的是从一张低分辨率、含有噪声的深度图以及一张对应的高分辨率的RGB图像中恢复高分辨率、无噪声的深度图的任务,在三维重建等任务中有着实际的应用。受限于深度传感器的精度,采集到的深度图通常质量较低,但RGB相机的发展使得高质量的RGB图像可以较容易地获取。现有的深度图超分辨率图像恢复方法通常将这个深度图超分辨率图像恢复任务视为引导滤波(Guided Filtering)问题,通过构建显式的滤波器,将RGB图像中的结构细节转移到深度图中,从而提高深度图的质量,例如文献[1](He,Kaiming et al.“Guided Image Filtering.”IEEE Transactions on Pattern Analysis and Machine Intelligence 35,2013:1397

1409.)。但由于RGB图像中信息的复杂性,这种方法可能会将不正确的信息转移到深度图中。另一种常见的方法将这个图像恢复任务视为一个稠密回归问题,通过监督学习的方法训练神经网络,直接对高分辨率的深度图进行回归,例如文献[2](Li,Yijun et al.“Deep Joint Image Filtering.”ECCV,2016.)与[3](Su,Hang et al.“Pixel

Adaptive Convolutional Neural Networks.”CVPR,2019:11158

11167.)等。这种方法可以利用CNN的特征提取能力,取得了更好的效果,但可解释性通常较差。
[0003][0004]
技术实现思路

[0005]为了克服上述技术存在的不足,本专利技术提供一种基于联合隐式图像函数的RGB图像引导的深度图超分辨率方法及系统,创建应用于深度图超分辨率图像恢复任务的深度神经网络模型,具体采用的联合隐式图像函数表示是一种适用于引导图像超分辨率任务的隐式图像表示形式,用于从对应的RGB图像中提取细节信息,从而更好的完成深度图的超分辨率图像恢复任务。
[0006]本专利技术提出的联合隐式图像函数(Joint Implicit Image Function,JIIF),从隐式神经表示(Implicit Neural Representation)的视角处理RGB图像引导的深度图超分辨率任务。具体而言,我们采用图像插值的形式解决深度图超分辨率问题,并使用一个由多层感知机(Multi

layer Perceptron)实现的深度隐函数(Deep Implicit Function,DIF)学习插值过程中使用的权重与值,最后通过插值公式计算预测的像素值。将本专利技术方法应用于深度图超分辨率图像恢复任务,恢复得到的图像在具有较好的可解释性的同时,通过利
用深度神经网络的特征提取能力,取得了较好的图像恢复效果。
[0007]本专利技术的技术方案是:
[0008]一种基于联合隐式图像函数的RGB图像引导深度图超分辨率方法,包括:建立深度神经网络模型;通过两个编码器从RGB图像以及输入的低分辨率深度图中分别提取特征;通过联合隐式图像函数,对于输出的高分辨率深度图中每一个像素,预测插值公式中的权重与值;按照插值公式对每个像素的特征进行插值,再通过解码器输出每个像素深度值的预测。本专利技术创建的用于深度图超分辨率图像恢复的深度神经网络模型包含RGB图像编码器,深度图编码器,以及JIIF解码器三个部分。
[0009]基于联合隐式图像函数的RGB图像引导的深度图超分辨率恢复方法包括如下步骤:
[0010]创建用于深度图超分辨率图像恢复的深度神经网络模型,包含RGB图像编码器,深度图编码器,以及JIIF解码器三个部分。本方法首次将隐式神经表示的方法应用于RGB引导的深度图超分辨率任务,提出了适用于此任务的联合隐式图像函数,对多模态的输入(RGB图像,低分辨率深度图)进行建模,并用于对高分辨率下的每一个像素的值进行预测,结合了CNN编码器提取特征的能力以及DIF的空间表达能力,在取得了更准确的预测结果的同时具有较好的解释性。
[0011]A.从输入的RGB图像以及低分辨率深度图中提取特征;
[0012]A1.通过RGB图像编码器E
φ
提取高分辨率RGB图像中每个像素处的特征;
[0013]A2.通过深度图编码器E
ψ
提取低分辨率深度图像中每个像素处的特征;
[0014]B.通过JIIF解码器输出预测的高分辨率深度图;
[0015]B1.对于高分辨率深度图中的每一个像素(目标像素),寻找低分辨率深度图中坐标最近的四个像素(近邻像素)以及提取的深度特征;
[0016]B2.在高分辨率RGB图像中找到目标像素对应的坐标处的RGB特征,以及四个近邻像素对应的坐标处的RGB特征;
[0017]B3.使用一个统一的联合隐式图像函数,输入上述目标像素以及近邻像素的坐标、深度特征以及RGB特征,输出目标像素与每个近邻像素间的插值权重以及值。
[0018]B4.通过插值公式,计算B3中的插值权重以及值在目标像素处的插值结果,作为目标像素处预测的深度值。
[0019]在步骤A中,我们通过两个编码器分别提取输入的高分辨率RGB图像与低分辨率深度图的特征,此处提取的特征的分辨率保持不变,即与输入的图像分辨率相同,从而可以视为位于每个像素处的特征。
[0020]在步骤B中,我们通过提出的JIIF解码器预测高分辨率深度图。对于高分辨率图像中的每一个目标像素,我们分别对其进行预测。首先,我们在低分辨率深度图中寻找坐标最近的四个近邻像素及其深度特征。传统的插值算法通常通过手工设计的规则计算插值权重,例如双线性插值,没有考虑RGB引导图像的信息。在本方法中,由于高分辨率RGB图像中目标像素与四个近邻像素的RGB特征是已知的,我们可以通过神经网络学习目标像素与任一近邻像素的RGB特征之间的相似性,归一化处理后作为深度特征的插值权重,从而利用了RGB引导图像中的先验知识。进一步的,我们使用一个统一的联合隐式图像函数同时学习插值权重与值。最后,我们使用学习得到的权重与值进行加权求和,输出最终的深度值预测。
[0021]与现有技术相比,本专利技术可以更好的利用RGB引导图像中的信息,并且具有较好的可解释性,在RGB图像引导的深度图像超分辨率恢复任务上取得了优于现有技术的图像恢复效果。
附图说明
[0022]图1是RGB图像引导本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于联合隐式图像函数的RGB图像引导深度图超分辨率方法,其特征是,包括:建立深度神经网络模型,用于深度图超分辨率图像恢复;所建立的用于深度图超分辨率图像恢复的深度神经网络模型包含RGB图像编码器,深度图编码器以及联合隐式图像函数解码器(JIIF解码器);采用隐式神经表示方法,建立适用于RGB引导的深度图超分辨率任务的联合隐式图像函数,对多模态输入进行建模;所述多模态的输入包括RGB图像和低分辨率深度图;通过所建立深度神经网络模型的RGB图像编码器和深度图编码器,从RGB图像以及输入的低分辨率深度图中分别提取特征;对于输出的高分辨率深度图中每一个像素,通过联合隐式图像函数预测插值公式中的权重与值;按照插值公式对每个像素的特征进行插值,得到高分辨率下的每一个像素的深度值;再通过JIIF解码器对高分辨率下的每个像素深度值进行预测并输出;利用训练好的用于深度图超分辨率图像恢复的深度神经网络模型,输入待恢复的RGB图像,进行深度图超分辨率图像恢复,即输出恢复好的深度图超分辨率图像,由此实现基于联合隐式图像函数的RGB图像引导深度图超分辨率图像恢复。2.如权利要求1所述基于联合隐式图像函数的RGB图像引导深度图超分辨率方法,其特征是,具体包括如下步骤:A.通过两个编码器从输入的RGB图像以及低分辨率深度图中分别提取特征,提取的特征的分辨率保持不变,即与输入图像的分辨率相同,;A1.通过RGB图像编码器提取高分辨率RGB图像中每个像素处的特征;A2.通过深度图编码器提取低分辨率深度图像中每个像素处的特征;B.通过JIIF解码器输出预测的高分辨率深度图:通过神经网络学习目标像素与任一近邻像素的RGB特征之间的相似性,归一化处理后作为深度特征的插值权重;进一步使用联合隐式图像函数同时学习插值权重与值;再使用学习得到的权重与值进行加权求和,输出深度值预测值;具体包括:B1.对于高分辨率深度图中的每一个像素,即目标像素,寻找低分辨率深度图中坐标最近的四个近邻像素以及提取的深度特征;B2.在高分辨率RGB图像中找到目标像素对应的坐标处的RGB特征,以及四个近邻像素对应的坐标处的RGB特征;B3.使用联合隐式图像函数,输入上述目标像素以及近邻像素的坐标、深度特征以及RGB特征,输出目标像素与每个近邻像素间的插值权重以及值;B4.通过插值公式,计算B3中的插值权重以及值在目标像素处的插值结果,作为目标像素处预测的深度值。3.如权利要求1所述基于联合隐式图像函数的RGB图像引导深度图超分辨率方法,其特征是,RGB图像编码器和深度图编码器分别提取输入图像的像素特征图,表示为:其中,x
i
与x
j
分别代表像素i与j的坐标,z
i
代表像素i处的RGB特征,g
j
代表像素j处的深
度图特征;使用连续图像表示方法,将坐标放缩到[

1,1]内,使得不同分辨率下的坐标共享;将这些RGB特征和深度图特征作为输入图像空间中一系列的隐式编码,用来编码对应像素处的局部特征。4.如权利要求3所述基于联合隐式图像函数的RGB图像引导深度图超分辨率方法,其特征是,编码器包括一系列的残差模块;具体可包含12个残差模块,每个模块提取的特征维度为128维。5.如权利要求3所述基于联合隐式图像函数的RGB图像引导深度图超分辨率方法,其特征是,根据图像插值公式定义联合隐式图像函数;对于低分辨率的输入图像M,通过如下插值公式得到高分辨率图像I中任一像素x
q
的值I(x
q
):其中,N
q
是像素q的邻域...

【专利技术属性】
技术研发人员:唐嘉祥陈小康曾钢
申请(专利权)人:北京大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1