一种面向RGBD三维重建的关键帧提取方法技术

技术编号:15692030 阅读:89 留言:0更新日期:2017-06-24 05:43
本发明专利技术公开了一种面向RGBD三维重建的关键帧提取方法。首先对于相机采集的RGBD数据流和用视觉里程计估计的相机位姿,将时间上相邻的若干数据帧分为一组。对于每一组数据,根据相机位姿和相机参数将每一帧深度图像向第一帧深度图像投影;将每组第一帧RGB图像向其余每一帧图像投影,通过线性插值的方式得到每一张投影RGB图像的灰度值。然后估计每一帧RGB图像的模糊程度,结合对应投影深度图像的权值,得到投影RGB图像的权值。根据得到的权值分别将组内投影深度图像和投影RGB图像融合,得到RGBD关键帧。本发明专利技术减少了深度相机采集数据的空洞和噪声,得到较清晰的深度图像和RGB图像,为相机位姿的全局优化和纹理提取等三维重建中的其它工作提供较可靠的数据来源。

A key frame extraction method for 3D reconstruction of RGBD

The invention discloses a key frame extraction method for three-dimensional reconstruction of RGBD. First, the RGBD data stream captured by camera and the camera pose estimated by visual odometry are divided into a set of adjacent data frames. For each set of data, according to the camera pose and camera parameters of each frame to the first frame depth image projection depth; each of the first frame RGB image to the rest of each frame of image projection, by linear interpolation method each projection gray value of the image by RGB. Then, the fuzzy degree of each frame RGB image is estimated, and the weight of the projection RGB image is obtained by combining the weight of the corresponding projection depth image. According to the obtained weights, the intra group projection depth image and the projected RGB image are fused respectively to obtain the RGBD key frame. The invention reduces noise and cavity depth camera data acquisition, get the depth image and RGB image is clear, provide a reliable source of data for other work pose global optimization and texture extraction in 3D reconstruction.

【技术实现步骤摘要】
一种面向RGBD三维重建的关键帧提取方法
本专利技术属于计算机视觉与计算机图形图像处理领域,具体地说是一种RGBD数据流中关键帧的提取方法,该方法为基于RGBD数据流的三维重建中相机位姿估计优化以及纹理重建的研究提供了更可靠的数据来源,对基于RGBD数据的三维重建技术的研究有着重要意义。
技术介绍
随着深度传感器的普及和三维重建技术的发展,近年来基于RGBD数据的三维模型重建的研究正在兴起。与传统基于RGB图像的三维重建相比,深度图像提供了场景的三维信息,极大地提高了三维重建的可行性和精度。而关键帧提取在相机的位姿估计、相机重定位以及纹理重建中都起到重要的作用。目前针对三维重建的关键帧提取的方法可以分为以下三类:一是基于时间戳的方法,该类算法以时间戳或帧数为单位,每隔一定的时间或帧数提取数据作为关键帧。这类方法实现简单、时间效率极高,关键帧的选取会受到扫描速率的影响;二是基于帧间运动检测的方法,该类方法计算每一帧数据与上一关键帧的相机相对位姿变换,根据大小决定是否加入关键帧序列;三是基于图像特征的方法,如Philip等人根据帧间对应特征点的数量提取关键帧。这类方法对相机的参数依赖性不高,但由于实际运行效率问题,适合应用在实时性要求不高的三维重建中。上述关键帧提取方法通常会面临关键帧的质量较低问题,如深度图像的噪声、空洞以及RGB图像的运动模糊等,对相机位姿的优化以及纹理提取等都有一定的影响。
技术实现思路
为克服上述缺点,本专利技术的目的在于根据RGBD数据流的特点,结合三维重建的需求,利用局部精确的相机姿态,研究一种融合多帧数据,在尽量保持原始数据特征的情况下,提高数据质量的关键帧提取方法。为了达到上述目的,本专利技术提出了一种面向RGBD三维重建的关键帧提取方法,其包括以下步骤:步骤(1)、将标定后的深度相机和彩色相机采集的RGBD数据流按照时间戳分组,相邻若干帧的深度图像、RGB图像和用视觉里程计估计的相机位姿为一组数据;步骤(2)、对每一组数据,根据深度相机的内部参数,将每一帧深度图像映射到三维空间中,然后根据相机位姿向组内第一帧深度图像投影,得到投影深度图像,投影的过程中更新投影深度图像中相邻的整数坐标的像素值,对投影深度图像的每一个像素,取与组内第一帧深度图像最接近的深度值为实际深度值;步骤(3)、对投影深度图像的每一个像素,根据相应投影坐标的误差计算其权值,对组内每一帧投影深度图像,以加权平均的方式计算最终的深度关键帧的像素值;步骤(4)、对每一组数据中的RGB图像,根据彩色相机和深度相机的内外参数以及深度关键帧的像素值,将组内第一帧RGB图像映射到三维空间中,然后根据每一帧的相机位姿分别向组内其余帧的RGB图像投影,用线性插值的方式计算每一个像素的灰度值,得到每一帧图像对应的投影RGB图像;步骤(5)、对每一帧输入的RGB图像,计算其运动模糊程度,结合投影深度图像的权值,计算相应的投影RGB图像中每一个像素对应的权值,对组内每一帧投影RGB图像,以加权中位数的方式计算关键帧的灰度值。其中,所述步骤(1)中,每一组数据的帧数为5。其中,所述步骤(5)中,投影RGB图像像素的权值计算同时考虑投影深度图像像素的权值与图像模糊程度。本专利技术的原理在于:首先对于相机采集的RGBD数据流,将相邻若干帧RGB和深度图像划分为一组,保证组内数据的相似和连续性。根据深度相机内参,将每一帧深度图像映射到三维空间中得到对应的三维点云,然后根据每一帧的相机位姿将三维点云投影到该帧所在组的第一帧深度图像上,计算投影深度图像和对应的权值。以加权平均的方式融合组内的所有投影深度图像得到深度关键帧。根据深度相机和彩色相机的内外参数以及深度关键帧的像素值,将每组第一帧RGB图像映射到三维空间中得到对应的三维点云,然后根据每一帧的相机位姿将三维点云分别投影到组内的每一帧RGB图像上,利用线性插值的方法计算像素灰度值,得到投影RGB图像。在计算投影RGB图像的权值时,考虑对应投影深度图像的权值以及RGB图像的运动模糊程度,对于运动模糊程度低的RGB图像,对应的投影RGB图像赋予更高的权值。最后,以加权中位数的方法融合组内所有的投影RGB图像,得到RGB关键帧。本专利技术中深入分析了三维重建中对RGBD关键帧的需求,与现有的一般针对三维重建的关键帧提取技术相比的优点在于:(1)、考虑深度相机采集的原始数据质量较低的特点,以及局部相机位姿估计的高精度特点,通过融合多帧深度图像有效减少了单帧深度图像的空洞和噪声。(2)、考虑相机运动过程中采集的原始数据存在运动模糊的特点,结合深度图像提供的像素平面到三维空间的映射能力,通过融合多帧RGB图像有效减少了单帧RGB图像可能带来的运动模糊,提高RGB图像的精度。附图说明图1示出本专利技术中原深度图像以及投影后对应的投影深度图像,其中图1(a)为原始深度图像,图1(b)为对应的投影深度图像;图2示出本专利技术中原RGB图像以及投影后对应的投影RGB图像,其中图2(a)为原始RGB图像,图2(b)为对应的投影RGB图像;图3示出本专利技术中融合前后的深度图像关键帧,其中图3(a)为融合前的深度图像,图3(b)为融合后的深度图像;图4示出本专利技术中融合前后的RGB图像关键帧,其中图4(a)为融合前的RGB图像,图4(b)为融合后的RGB图像;图5示出本专利技术的一种面向RGBD三维重建的关键帧提取的原理图。具体实施方式结合附图对本专利技术实施例进行详细的描述。本专利技术的实施过程主要分成四个步骤:RGBD数据帧分组、投影深度图像计算、投影RGB图像计算、投影数据融合。步骤一、RGBD数据帧的分组对于给定的已配准的RGBD数据流Input1~Inputn,将时间戳相邻的若干帧RGB图像(以C1~Ck为例)、深度图像(以D1~Dk为例)和对应的相机位姿(以T1~Tk为例)分为一组。步骤二、投影深度图像计算其主要步骤为:步骤(2.1)根据深度相机内部参数Kd将D1~Dk中的每一个像素点分别映射到三维空间中,具体为:p=Kd*(u,v,d)T(1)其中,p为映射后的三维点坐标,Kd为深度相机的内参矩阵(3*3),u、v为原始像素坐标,d为该像素坐标下对应的深度值。步骤(2.2)通过相机位姿矩阵,将每一帧的点云数据转化到所在组内第一帧的相机坐标系下,具体为:pr=T1-1*Ti*p(2)其中,pr为对应第一帧相机坐标系下的三维点云坐标,T1为所在组第一帧的相机位姿矩阵,Ti为第i帧的相机位姿矩阵。步骤(2.3)根据深度相机内部参数Kd,将三维点云映射到像素坐标系下,得到投影深度图像中对应的像素坐标。具体为:其中,px,py为映射后的像素坐标值,dr为对应的深度值。步骤(2.4)由于步骤(2.3)中得到的像素坐标px,py通常不为整数,需要更新投影深度图像中与之相邻的4个像素坐标。对于多个三维点映射到同一个像素坐标的情况,取其深度值为离第一帧原始深度图像最接近的值。步骤三、投影深度图像融合步骤(3.1)对投影深度图像的每一个像素ur,vr,根据最终取得的深度值dr和相应的像素坐标px,py,计算该像素对应的权值。对于没有被映射到的像素,权值设为0。其中,wd(ur,vr)为投影深度图像像素的权值。步骤(3.2)对于深度关键帧中的每一个像本文档来自技高网...
一种面向RGBD三维重建的关键帧提取方法

【技术保护点】
一种面向RGBD三维重建的关键帧提取方法,其特征在于包括以下步骤:步骤(1)、将标定后的深度相机和彩色相机采集的RGBD数据流按照时间戳分组,相邻若干帧的深度图像、RGB图像和用视觉里程计估计的相机位姿为一组数据;步骤(2)、对每一组数据,根据深度相机的内部参数,将每一帧深度图像映射到三维空间中,然后根据相机位姿向组内第一帧深度图像投影,得到投影深度图像,投影的过程中更新投影深度图像中相邻的整数坐标的像素值,对投影深度图像的每一个像素,取与组内第一帧深度图像最接近的深度值为实际深度值;步骤(3)、对投影深度图像的每一个像素,根据相应投影坐标的误差计算其权值,对组内每一帧投影深度图像,以加权平均的方式计算最终的深度关键帧的像素值;步骤(4)、对每一组数据中的RGB图像,根据彩色相机和深度相机的内外参数以及深度关键帧的像素值,将组内第一帧RGB图像映射到三维空间中,然后根据每一帧的相机位姿分别向组内其余帧的RGB图像投影,用线性插值的方式计算每一个像素的灰度值,得到每一帧图像对应的投影RGB图像;步骤(5)、对每一帧输入的RGB图像,计算其运动模糊程度,结合投影深度图像的权值,计算相应的投影RGB图像中每一个像素对应的权值,对组内每一帧投影RGB图像,以加权中位数的方式计算关键帧的灰度值。...

【技术特征摘要】
1.一种面向RGBD三维重建的关键帧提取方法,其特征在于包括以下步骤:步骤(1)、将标定后的深度相机和彩色相机采集的RGBD数据流按照时间戳分组,相邻若干帧的深度图像、RGB图像和用视觉里程计估计的相机位姿为一组数据;步骤(2)、对每一组数据,根据深度相机的内部参数,将每一帧深度图像映射到三维空间中,然后根据相机位姿向组内第一帧深度图像投影,得到投影深度图像,投影的过程中更新投影深度图像中相邻的整数坐标的像素值,对投影深度图像的每一个像素,取与组内第一帧深度图像最接近的深度值为实际深度值;步骤(3)、对投影深度图像的每一个像素,根据相应投影坐标的误差计算其权值,对组内每一帧投影深度图像,以加权平均的方式计算最终的深度关键帧的像素值;步骤(4)、对每一组数据中的RGB图像,根据彩色相机...

【专利技术属性】
技术研发人员:齐越韩尹波王晨
申请(专利权)人:北京航空航天大学
类型:发明
国别省市:北京,11

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1
相关领域技术
  • 暂无相关专利