The scene flow estimation method based on the assumption of local rigidity in the rgbd video disclosed in the invention firstly inputs two consecutive RGB images and depth images respectively, and calculates the optical flow information between two consecutive RGB images; secondly, registers the input depth image and RGB image according to the coordinate conversion, repairs the holes in the depth image and eliminates the noise points; then, uses the K \u2011 means algorithm to repair The complex depth image is layered, and the pixel value close to the depth value is divided into the same layer; then each layer is divided into many blocks and the motion information of each block is calculated using the local rigid global non rigid assumption; finally, the final scene flow information is obtained according to the optical flow information and the depth image layered information. The method of the invention has higher precision compared with the traditional method of calculating scene flow.
【技术实现步骤摘要】
RGBD视频中基于局部刚性假设的场景流估计方法
本专利技术属于计算机数字图像处理
,具体涉及一种RGBD视频中基于局部刚性假设的场景流估计方法。
技术介绍
光流是指空间运动物体在观察平面上的像素运动的顺时速度,表达了图像的变化,由于它包含了目标运动的信息,因此,可被观察者用来确定目标的运动情况。由光流的定义可以引申出光流场,它是指图像中所有像素点构成的一种二维(2D)瞬时速度场,其中的二维速度矢量是景物中可见点的三维速度矢量在成像表面的投影。所以光流不仅包含了被观察物体的运动信息,而且还包含有关景物三维结构的丰富信息。通常3D场景流(SceneFlow)被看作是二维光流到三维的扩展,它能够描述空间物体运动所形成的三维运动矢量。近年来随着计算机技术的发展,场景流即相关技术研究也得到了迅速的提升和广泛的应用。在理论方面,场景流的计算方法由传统的双目立体视觉发展到用RGBD方法估计场景流。在应用方面,场景流技术可以应用于虚拟现实,目标检测,跟踪与识别等。目前,计算场景流的方法主要有两种,分别是基于双目立体视觉和基于RGBD计算场景流。前者主要是通过左右两个相机同步拍照,获得左右图像。对左右图像进行匹配,能够获得左右光流,进而得到场景流的估计。这种方法由于估计视差图而额外消耗时间的同时容易受到噪声和异常点估计的影响。随着深度传感器的诞生,基于RGBD方法成为计算场景流的主要方法。与前者相比,基于RGBD方法能够直接利用传感器获取较为精确的深度信息,因此能够提高计算准确性并节省计算时间。但是基于RGBD方法在遮挡 ...
【技术保护点】
1.RGBD视频中基于局部刚性假设的场景流估计方法,其特征在于,具体操作过程包括如下步骤:/n步骤1,分别输入连续两帧RGB图像和深度图像,并计算连续两帧RGB图像之间的光流信息;/n步骤2,根据坐标转换配准输入的深度图像和RGB图像,修复深度图像中的洞和消除噪声点;/n步骤3,使用K-means算法对修复后的深度图像分层,将深度值接近的像素值分为同一层;/n步骤4,使用局部刚性全局非刚性假设,将深度图像的每一层分成许多块,计算每一块的运动信息,得到深度图像的运动信息;/n步骤5,根据步骤1得到的RGB图像的光流信息和步骤4的深度图像的每一层的运动信息,计算得到最终的场景流信息。/n
【技术特征摘要】
1.RGBD视频中基于局部刚性假设的场景流估计方法,其特征在于,具体操作过程包括如下步骤:
步骤1,分别输入连续两帧RGB图像和深度图像,并计算连续两帧RGB图像之间的光流信息;
步骤2,根据坐标转换配准输入的深度图像和RGB图像,修复深度图像中的洞和消除噪声点;
步骤3,使用K-means算法对修复后的深度图像分层,将深度值接近的像素值分为同一层;
步骤4,使用局部刚性全局非刚性假设,将深度图像的每一层分成许多块,计算每一块的运动信息,得到深度图像的运动信息;
步骤5,根据步骤1得到的RGB图像的光流信息和步骤4的深度图像的每一层的运动信息,计算得到最终的场景流信息。
2.如权利要求1所述的RGBD视频中基于局部刚性假设的场景流估计方法,其特征在于,所述步骤2中将深度图像中的噪声根据深度值为0的连通区域的大小区分为洞和噪声点,然后根据区域相似性和颜色一致性修补洞,采用双边滤波消除噪声点。
3.如权利要求1所述的RGBD视频中基于局部刚性假设的场景流估计方法,其特征在于,所述步骤2的具体过程如下:
深度图像和RGB图像的配准过程:在深度图像和RGB图像中分别找到四对对应的点,这四对对应点坐标的位置信息根据式(1)得到投影矩阵,使用opencv中的函数warpPerspective()得到深度图像与RGB图像的配准图像;
式中,(X,Y)为RGB图像中的像素点坐标,(x,y)为深度图像中的像素点坐标,A为投影矩阵;
如果深度图像中深度值为0的连通区域的面积大于4,则该区域是洞,根据区域一致性和颜色的一致性修补洞,然后根据双边滤波消除噪声点;
如果深度图像中深度值为0的连通区域的面积为4或者小于4,则该区域是噪声点,根据双边滤波消除噪声点。
4.如权利要求1所述的RGBD视频中基于局部刚性假设的场景流估计方法,其特征在于,所述步骤3的具体过程如下:
步骤3.1,初始化实验数据,假设深度图像D为m*n的矩阵,D={d1,d2,...dn},聚类数目设为k,设定k个聚类中心(m1,m2,...mk);输出k个类簇Cj(j=1,2,...,k);
步骤3.2,对每一个样本dj,计算出距离它最近的聚类中心,然后将其分配到该类;
步骤3.3,计算每一个簇中所有像素点的均值,用于重新确定聚类中心,如公式(2)所示:
式中,Ni为第i个聚类的所有像素点,dij为第i簇中的第j个样本;
步骤3.4,计算深度图像各点与其对应的簇中心的偏差,如式(3)所示:
式中,ni表示第i簇中像素点的个数;
步骤3.5,判断J值是否收敛,如果收敛,则聚类中心不变,并返回原聚类中心(m1,m2,...
【专利技术属性】
技术研发人员:李秀秀,刘沿娟,金海燕,蔡磊,
申请(专利权)人:西安理工大学,
类型:发明
国别省市:陕西;61
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。