一种多深度图融合方法、装置及计算机可读存储介质制造方法及图纸

技术编号:30414007 阅读:26 留言:0更新日期:2021-10-24 16:15
本发明专利技术提供了一种多深度图融合方法、装置及计算机可读存储介质,其中多深度图融合方法,包括以下步骤:S1、设置两个TOF相机,分别获取两个TOF相机的视野区域;在所述两个TOF相机的视野区域的重叠区域选取多个特定点,获取所述两个TOF相机的深度图像;S2、计算所述两个TOF相机位姿的外参矩阵;S3、建立真实物体经由单TOF相机成像的成像概率模型;S4、根据所述成像概率模型,计算由单相机获得的所述深度图像还原真实物体点云的点云概率模型;S5、建立体素网格,通过双相机各自的点云概率模型,建立双相机联合的点云概率模型。本多深度图融合方法、装置及计算机可读存储介质,对相机的利用率更高,边缘的精度更高。边缘的精度更高。边缘的精度更高。

【技术实现步骤摘要】
一种多深度图融合方法、装置及计算机可读存储介质


[0001]本专利技术涉及机器视觉
,尤其涉及一种多深度图融合方法、装置及计算机可读存储介质。

技术介绍

[0002]随着深度相机所提供的硬件系统逐渐成熟,3D领域的应用也如雨后春笋般蓬勃发展,比如3D重建、3D骨架识别等。在众多深度相机中,TOF相机因其适应性强、测量范围广等优点,逐渐受到大众的青睐。
[0003]在3D重建和深度估计领域,深度图融合是重要的组成部分。以深度相机作为采集工具的3D重建领域中,常通过移动单一相机获取连续深度图序列,利用深度图对应的点云之间的相关性进行融合,以实现物体或场景的三维模型重建。这类深度图融合算法侧重于研究深度图所对应点云之间的相关性,以还原物体或场景的几何特征为主要目的,对测量精度的要求较低。在深度估计领域,常利用不同的深度相机获取相同视点的一组深度图,根据不同深度相机的误差和噪声特性不同,相互补偿,以提高深度测量的精度,还原高质量的深度图。这类深度图融合算法侧重于以数学的角度研究深度相机的误差模型与联合方法,以构建更精确的深度图为主要目的,本文档来自技高网...

【技术保护点】

【技术特征摘要】
1.一种多深度图融合方法,其特征在于,包括以下步骤:S1、设置两个TOF相机,分别获取两个TOF相机的视野区域;在所述两个TOF相机的视野区域的重叠区域选取多个特定点,获取所述两个TOF相机的深度图像;S2、计算所述两个TOF相机位姿的外参矩阵;S3、建立真实物体经由单TOF相机成像的成像概率模型;S4、根据所述成像概率模型,计算由单相机获得的所述深度图像还原真实物体点云的点云概率模型;S5、建立体素网格,通过双相机各自的点云概率模型,建立双相机联合的点云概率模型。2.如权利要求1所述的多深度图融合方法,其特征在于,所述S1具体包括:S11:标记至少四个不在同一平面上的所述特定点;S12:通过在驱动相机的SDK中改变调制频率、积分时间,获取可以观测到所述特定点的强度图像,并同时获取对应的深度图像和幅值图像。3.如权利要求2所述的多深度图融合方法,其特征在于,所述S2具体包括:S21、在所述特定点的强度图像中,获取特定点的像素坐标,该坐标同样为对应的深度图像中特定点的像素坐标,相同特定点在双相机的深度图像中的像素坐标一一对应;S22、根据深度图像与点云数据的关系式,利用所述深度图像的像素坐标及对应像素值,计算得到各个特定点的空间坐标;其中,u、v分别为深度图像中特定点的像素坐标,u0、v0分别为深度图像的中心坐标,x、y、z表示某特定点对应的三维空间坐标,z
c
表示深度图像(u,v)像素点的深度值,d
x
、d
y
、f为相机的内参;S23、一台TOF相机视野内的特定点集表示为P={p1,p2,...,p
n
},另一台TOF相机视野内的特定点集表示为Q={q1,q2,...,q
n
};,P和Q中的点一一对应,根据空间坐标变换公式,计算得到两台TOF相机的外参矩阵,包括旋转矩阵R和平移矩阵T;q
i
=Rp
i
+TS24:通过最小化目标函数求解旋转矩阵R和平移矩阵...

【专利技术属性】
技术研发人员:陈琢刘佩林邹耀应忍冬
申请(专利权)人:上海数迹智能科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1