一种基于生成对抗网络的图像深度估计方法技术

技术编号:20046726 阅读:85 留言:1更新日期:2019-01-09 04:45
本发明专利技术提供一种基于生成对抗网络的图像深度估计方法,采集场景RGB‑D图像,构建场景RGB‑D图像数据集,其中,所述RGB‑D图像数据集中的彩色图像作为单目场景图像;构建基于生成对抗网络的模型,将所述单目场景图像输入到所述网络模型中,通过训练和迭代反馈,将所述单目场景图像转换为最终合成的深度图图像。本发明专利技术提供的深度估计方法将单目场景图像转换含有距离信息的深度图图像,进而对场景三维重建的研究提供基础。

【技术实现步骤摘要】
一种基于生成对抗网络的图像深度估计方法
本专利技术涉及计算机视觉中三维重建
,特别涉及一种基于生成对抗网络的图像深度估计方法。
技术介绍
距离信息是计算机视觉中场景三维重建等一些领域的研究基础。如果能够准确地从场景图像中推理出场景的三维结构,人类和计算机就能理解图像中物体之间的三维关系,从而更好地对场景理解,同时也将极大促进计算机视觉领域多种应用的发展,例如3D电影制作、机器人导航、无人驾驶等。传统的场景深度估计的视觉算法一般是双目或者多目,主要是基于光学几何约束,如立体图像匹配、SfM等。此外还有一些基于环境假设的单目图像深度估计的方法,例如焦点、光照变化、遮挡、物体大小等。与双目或者多目图像深度估计方法相比,单目图像深度估计方法对于相机参数要求更低,应用更加方便。单目图像深度估计方法的困难之处在于视觉模型很难从单目图像中获取足够用于推测场景3D结构信息的特征。近年来,深度学习方法在计算机视觉领域取得了一些重大的突破,由于深度学习方法可以学习到丰富的相关特征表达,因此深度学习非常善于处理感知类任务,所以基于深度学习的单目图像深度估计能够更好的获取图像特征,从而推测出更丰富的3本文档来自技高网...

【技术保护点】
1.一种基于生成对抗网络的图像深度估计方法,其特征在于,包括如下步骤:采集场景RGB‑D图像,构建场景RGB‑D图像数据集,其中,所述RGB‑D图像数据集中的彩色图像作为单目场景图像;构建基于生成对抗网络的单目场景图像深度估计模型,将所述单目场景图像输入到所述网络模型中,通过训练和迭代反馈,将所述单目场景图像转换为最终合成的深度图图像。

【技术特征摘要】
1.一种基于生成对抗网络的图像深度估计方法,其特征在于,包括如下步骤:采集场景RGB-D图像,构建场景RGB-D图像数据集,其中,所述RGB-D图像数据集中的彩色图像作为单目场景图像;构建基于生成对抗网络的单目场景图像深度估计模型,将所述单目场景图像输入到所述网络模型中,通过训练和迭代反馈,将所述单目场景图像转换为最终合成的深度图图像。2.根据权利要求1所述的基于生成对抗网络的图像深度估计方法,其特征在于,所述网络模型包括生成器和判别器;所述将所述单目场景图像转换为合成的深度图图像的具体步骤为:将所述单目场景图像输入所述生成器,所述生成器输出合成的深度图图像;将所述合成的深度图图像以及所述真实的深度图图像输入到所述判别器,用以判别输入到所述判别器的深度图图像的真假;通过损失函数优化所述网络模型,得到所述最终合成的深度图图像。3.根据权利要求2所述的基于生成对抗网络的图像深度估计方法,其特征在于,所述的损失函数包括:在生成器中添加的GANloss损失函数,用以使得合成的深度图图像更接近于真实的深度图图像;在所述合成的深度图图像和所述真实的深度图图像之间添加ssim损失函数,用以保持所述单目场景图像转换为所述合成的深度图图像的结构不变性;在所述合成的深度图图像和所述真实的深度图图像之间添加尺度不变损失函数,用以使得所述网络模型在同一场景的不同尺...

【专利技术属性】
技术研发人员:俞智斌张少永郑海永郑冰
申请(专利权)人:中国海洋大学
类型:发明
国别省市:山东,37

网友询问留言 已有1条评论
  • 来自[广东省深圳市电信] 2019年01月09日 20:40
    您好,我想咨询下,既然您已经用单目视觉得到深度图,再用生成对抗网络再得到深度图有什么意义呢,在没有深度图的条件下能否用生成对抗网络得到深度图呢
    0
1