一种基于感知损失的双目深度估计方法技术

技术编号:33090230 阅读:23 留言:0更新日期:2022-04-15 11:02
本发明专利技术涉及一种基于感知损失的双目深度估计方法,包括步骤一,收集数据;收集真实的立体图像;步骤二,利用计算机软件重建立体图像;步骤三,形成视差生成网络;利用步骤一收集的立体图像与步骤二重建的立体图像形成视差生成网络;视差生成网络的形成是将左右两幅图像连接到卷积层作为训练时的输入;步骤四,确定视差损失L;所述视差损失L包括颜色相似性损失Lc以及感知损失Lp;步骤五,利用视差损失L改进立体视差生成网络,形成立体视差估计网络。本发明专利技术通过考虑视差损失,所述视差损失L包括颜色相似性损失Lc以及感知损失Lp;感知损失考虑原图像和重建图像的差异损失,更精确的建立双目感知的模型。目感知的模型。目感知的模型。

【技术实现步骤摘要】
一种基于感知损失的双目深度估计方法


[0001]本专利技术涉及视差领域,特别是一种基于感知损失的双目深度估计方法。

技术介绍

[0002]在众多计算机视觉和移动机器人领域中,场景深度信息的准确估计是一个关键问题,受到了研究者的广泛关注。基于深度估计的机器人有很多应用,如自动驾驶车辆、机器人导航、机器人抓取等。同时,精确的深度数据对于虚拟现实(VR)和增强现实(AR)也是至关重要的。
[0003]到目前为止,已有大量的方法被提出来解决和优化深度估计,其中立体匹配相对于LIDAR传感器或结构光相机是应用最广泛的。立体匹配是一种类似于人类双目视觉的方法,在一对矫正的立体图像之间搜索对应的匹配像素点,得到记录水平坐标差异的视差。具体来说,一个物体分别在位置(x,y)和(x

d,y)的左右像上投影。然后根据极面几何知识,可以计算出物体深度。本文可以根据z=fB/d的公式计算出物体深度,其中f为相机的焦距,B为两个相机中心之间的基线距离。
[0004]传统的立体视差估计方法将立体匹配的计算和优化分为几个步骤。近年来,使用本文档来自技高网...

【技术保护点】

【技术特征摘要】
1.一种基于感知损失的双目深度估计方法,其特征在于,包括步骤一,收集数据;收集真实的立体图像;利用计算机软件重建立体图像;步骤二,形成立体视差生成网络;利用步骤一收集的立体图像与步骤二重建的立体图像形成视差生成网络;视差生成网络的形成是将左右两幅图像连接到卷积层作为训练时的输入;步骤三,确定视差损失L;步骤四,利用视差损失L改进立体视差生成网络,形成立体视差估计网络。2.根据权利要求1所述的一种基于感知损失的双目深度估计方法,其特征在于,所述步骤二的立体视差生成网络的体系结构由编码器和解码器组成。3.根据权利要求2所述的一种基于感知损失的双目深度估计方法,其特征在于,步骤一收集的立体图像与重建的立体图像要进行预处理;所述预处理包括图像空间变换和色彩变换;空间变换是图像的水平旋转。4.根据权利要求3所述的一种基于感知损失的双目深度估计方法,其特征在于,所述色彩变换包括色彩、对比度和亮度的变换;两幅图像分别经过的卷积层处理,然后得到特征水平相关的图像。5.根据权利要求4所述的一种基于感知损失的双目深度估计方法,其特征在于,所述步骤三的所述视差损失L包括颜色相似性损失Lc以及感知损失Lp;视差损失的函数公式为骤三的所述视差损失L包括颜色相似性损失Lc以及感知损失Lp;视差损失的函数公式为其中是两个损失之间的权衡参数;所述颜色相似性损失Lc包括单尺度损失C
s
。6.根据权利要求5所述的一种基于感知损失的双目深度估计方法,其特征在于,单尺度损失C
s
包括颜色匹配损失、视差平滑损失和视差左右一致性损失;所述颜色匹配损失包括左目颜色匹配损失以及右目颜色损失视差平滑损失包括左目视差平滑损失以及右目视差平滑损失视差左右一致性损失包括视左目差左右一致性损失以及右目视差左右一致性损失单尺度损失C
s
计算公式为在上...

【专利技术属性】
技术研发人员:孟荣范晓丹赵智龙段延博石培杰常浩段三良
申请(专利权)人:国家电网有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1