【技术实现步骤摘要】
基于深度图的实时三维重建方法
本专利技术属于计算机视觉
,更具体地,涉及一种基于深度图的实时三维重建方法。
技术介绍
三维重建技术一直是计算机图形学和计算机视觉领域的一个热点课题。早期的三维重建技术通常以二维图像作为输入,重建出场景中的三维模型,受限于输入数据,重建出的三维模型通常不够完整,而且真实感较低。近年来,随着各种面向普通消费者的深度相机的出现,基于深度相机的三维重建技术得到飞速发展。深度相机造价低廉,体积适当,操作方便,并且易于研究者和工程师进行开发,近期工作重点利用这种消费者深度相机实现实时表面重建。三维重建技术也是增强现实技术的基础,经过扫描重建后的三维模型可以运用到增强现实(AugmentedReality,AR)或虚拟现实(VirtualReality,VR)场景中。实时重建可以将许多重叠深度图进行融合并表示成一个不断更新的3D场景,但是在不牺牲重建质量和空间规模的前提下保证较好的实时性能,是十分具有挑战性的。许多先进的实时技术使用了不同类型的图形硬件加速底层数据结构,然而,这些在重建速度、规模和质量方面有一定的权衡,一些研究者提出完全体积的数据结构来隐式地存储连续函数的样本,在这些方法中,深度图预处理为带符号的距离场,并累积加权为一个规则的体素网格,最后利用光线投射算法提取距离函数值为0的等值面,从而构建待重建场景表面。这虽然是一种高质量的重建方法,但它使用固定体积的网格模型表示重建的三维场景,导致重建的时候只能重建固定大小的场景,并且当重建体积较大或网格的空间分辨率较高时十分消耗显存。
技术实现思路
针对现有技术的缺陷和改进需求,本 ...
【技术保护点】
1.一种基于深度图的三维重建方法,其特征在于,包括如下步骤:(1)利用深度相机获得拍摄场景的深度图和RGB彩色图;所述深度图用于表示场景表面到深度相机的距离,所述彩色图用于给出所述深度图中对应像素点的颜色信息;(2)对于当前帧的深度图I,针对深度信息缺失,对所述深度图I的深度信息进行补全,然后将所述深度图I的像素点转换第一类三维坐标点,并根据第一类三维坐标点计算所述深度图I中每一个像素点处的法向量;其中,所述第一类三维坐标点为相机坐标系下的三维坐标点;(3)若所述深度图I为第一帧深度图,则将由所述深度图I中的像素点转换得到的第一类三维坐标点作为第二类三维坐标点;否则,将由所述深度图I中的像素点转换得到的第一类三维坐标点转换为第二类三维坐标点;其中,所述第二类三维坐标点为世界坐标系下的三维坐标点;(4)对于所述深度图I所对应的每一个第二类三维坐标点,在其周围为其分配一个以该第二类三维坐标点为中心的体素块,得到当前帧的体素块;为所述当前帧的体素块中的每一个体素块分配存储空间,并利用哈希表索引体素块;其中,每一个体素块存储8*8*8个体素,每一个体素存储sdf值、color信息以及weigh ...
【技术特征摘要】
1.一种基于深度图的三维重建方法,其特征在于,包括如下步骤:(1)利用深度相机获得拍摄场景的深度图和RGB彩色图;所述深度图用于表示场景表面到深度相机的距离,所述彩色图用于给出所述深度图中对应像素点的颜色信息;(2)对于当前帧的深度图I,针对深度信息缺失,对所述深度图I的深度信息进行补全,然后将所述深度图I的像素点转换第一类三维坐标点,并根据第一类三维坐标点计算所述深度图I中每一个像素点处的法向量;其中,所述第一类三维坐标点为相机坐标系下的三维坐标点;(3)若所述深度图I为第一帧深度图,则将由所述深度图I中的像素点转换得到的第一类三维坐标点作为第二类三维坐标点;否则,将由所述深度图I中的像素点转换得到的第一类三维坐标点转换为第二类三维坐标点;其中,所述第二类三维坐标点为世界坐标系下的三维坐标点;(4)对于所述深度图I所对应的每一个第二类三维坐标点,在其周围为其分配一个以该第二类三维坐标点为中心的体素块,得到当前帧的体素块;为所述当前帧的体素块中的每一个体素块分配存储空间,并利用哈希表索引体素块;其中,每一个体素块存储8*8*8个体素,每一个体素存储sdf值、color信息以及weight信息;所述sdf值表示体素到场景表面的有符号距离,sdf值为0的体素位于场景表面,且sdf值为正值的体素和sdf值为负值的体素分别位于场景表面的两侧;所述color信息表示体素的RGB颜色信息,其值根据所述RGB彩色图得到,所述weight信息表示对体素所属的体素块进行加权融合时的权重;(5)利用哈希表索引对于所述深度图I可见的体素块,并通过对体素块加权融合更新体素块中每一个体素的sdf值,然后根据体素的sdf值提取场景表面;(6)获得所述场景表面的纹理信息,使得重建场景经过渲染后具有色彩信息;计算所述场景表面每一个体素处的表面法向量,使得重建场景经过渲染后具有层次感;(7)依次遍历每一帧深度图,将其作为当前帧的深度图,并重复执行步骤(2)~(6),直至场景重建完成。2.如权利要求1所述的基于深度图的实时三维重建方法,其特征在于,所述步骤(2)包括:(21)针对深度信息缺失,利用联合双边滤波对所述深度图I进行去噪,从而在保留前景与背景边缘的前提下,对所述深度图I的深度信息进行补全;(22)将所述深度图I的像素点转换为第一类三维坐标点;对于所述深度图I中位于(x,y)处的像素点u,将其转换为第一类三维坐标点V(x,y),计算公式为:V(x,y)=D(x,y)K-1(x,y,1);其中,D(x,y)为所述像素点u的深度值,K为深度相机内参数;(23)根据第一类三维坐标点计算所述深度图I中每一个像素点处的法向量;其中,对于所述像素点u,计算其法向量n(u)的计算公式为:n(u)=(V(x+1,y)-V(x,y))×(V(x,y+1)-V(x,y))。3.如权利要求1所述的基于深度图的实时三维重建方法,其特征在于,所述步骤(3)中将由所述深度图I中的像素点转换得到的第一类三维坐标点转换为第二类三维坐标点,包括:(31)将由前一帧深度图转换得到的第二类三维坐标点作为源点云,将由所述深度图I中的像素点转换得到的第一类三维坐标点作为目标点云;(32)对于所述源点云中的第二类三维坐标点pi,计算其在所述深度图I中的投影坐标(xi,yi);计算公式如下:(cxi,cyi,c)=KTpi;其中,T为当前帧的相机位姿,包含旋转矩阵和平移矩阵,初始时刻,所述当前帧的相机位姿为上一帧的相机位姿;c为常数;K为深度相机内参数;根据所述投影坐标(xi,yi),得到对应的第一类三维坐标点qi';若所述投影坐标(xi,yi)中,坐标值xi和坐标值yi均为整数,则将所述第一类三维坐标点qi'作为所述第二类三维坐标点pi的投影匹配点qi;否则,在所述目标点云中寻找与所述第一类三维坐标点qi'的欧式距离最近的第一类三维坐标点并将其作为所述第二类三维坐标点pi的投影匹配点qi;其中,i的取值范围为1~m,m为源点云中的三维坐标点的个数;(33)计算所述源点云中每一个第二类三维坐标点到对应的投影匹配点处切平面的...
【专利技术属性】
技术研发人员:李丹,胡迎松,邹春明,袁凌,谭琪蔚,孙钰可,刘爽,
申请(专利权)人:华中科技大学,
类型:发明
国别省市:湖北,42
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。