The invention discloses a method for acquiring three-dimensional foot shape by collecting foot video and sensor data through an intelligent mobile phone. Around barefoot shooting IMU 360 degrees to obtain data corresponding to the foot type video and intelligent mobile phone with IMU sensor, through the establishment of factor graph, the data of camera pose and 3D point cloud coordinates, IMU video data, etc. as the existing contour factor, through the constraint error equation defined between each factor and to solve and get the camera parameters, the reference model for foot reconstruction. Make full use of the deformation distribution of point cloud, surface normal vector, curvature information reference model to guide the reconstruction of foot type, to not deviate from the reconstruction of point cloud conditions, as close as possible to the real foot type, reduce the interference of noise points, so as to achieve a convenient foot type corresponding to the three dimensional mesh model. It not only reduces the acquisition cost of the foot data, but also avoids the accuracy and robustness of the parameter calculation.
【技术实现步骤摘要】
一种通过智能手机采集脚型视频和传感器数据获取三维脚型的方法
本专利技术涉及一种三维重建方法,尤其涉及一种基于带摄像机和传感器的智能手机通过采集脚型RGB视频和传感器数据并结合数据库中的参考脚型模型进行三维脚型数据获取的方法。
技术介绍
近两年对结合传感器和三维重建算法的研究越来越多,产生了大量高质量的三维重建算法,迅速提升了基于移动终端的三维重建技术。对三维重建算法进行总结,可以将基于移动终端的三维重建算法大致分为如下几类:基于深度图融合的三维重建、基于IMU和视觉融合的三维重建、基于光照条件和激光扫描等其它传感器的三维重建。基于深度图融合的三维重建,由深度传感器记录拍摄场景的深度信息,然后根据SFM算法或其它算法计算摄像机参数,并用该摄像机参数恢复三维空间坐标点并反投影到视频上,最小化反投影误差,如主要研究深度图的融合过程,即利用高斯模型或其它数据模型对同时摄像机参数和三维点云进行约束,过滤掉偏差较大的值。另一种算法是由建立体素,根据各个角度的深度图及摄像机参数计算当前位置的深度并进行融合,最后形成目标物体的体积网格。但这种方法运行时需要占用大量的内存,计算速度慢,不利用在线实时重建。基于IMU和视觉融合的三维重建,比较成熟的算法中,主要考虑到视觉三维重建算法对纹理要求高的缺点,利用IMU单元的陀螺仪和加速计记录移动设备的朝向和加速度,并假设噪声服从高斯分布,借助Kalman滤波对IMU数据进行预测,得到视频对应的摄像机参数,并融入到视觉算法中,由计算的三维坐标点和二维特征点之间、两幅视频的二维特征点之间的约束关系统一优化摄像机参数。在此基础上,Adri ...
【技术保护点】
一种通过智能手机采集脚型视频和传感器数据获取三维脚型的方法,其特征在于,该方法包括以下步骤:(1)利用智能手机围绕裸脚旋转一圈采集脚型视频和传感器数据,将视频分解成视频帧,并取部分帧作脚型区域分割等预处理,同时对脚型数据库中的参考脚型模型求法向量等参数;(2)根据多视角立体几何的约束关系,检测视频帧中的特征点并进行匹配,计算摄像机内外参数,恢复特征点对应的三维点云坐标;(3)加入IMU数据,对步骤2得到的摄像机参数和三维点云坐标进行修正,包括修复多视角算法失败无法求得摄像机参数的情况和移动三维点云坐标以减小三维坐标计算误差;(4)从已有的脚型数据库中选择相似的参考脚型模型,对齐重建脚型模型和参考脚型模型,并对重建脚型模型进行去噪、光滑、表面重建处理;(5)根据重建脚型模型和参考脚型模型之间的局部和整体对齐关系,对参考脚型模型进行形变使其拟合重建脚型模型,输出最终的重建脚型模型结果。
【技术特征摘要】
1.一种通过智能手机采集脚型视频和传感器数据获取三维脚型的方法,其特征在于,该方法包括以下步骤:(1)利用智能手机围绕裸脚旋转一圈采集脚型视频和传感器数据,将视频分解成视频帧,并取部分帧作脚型区域分割等预处理,同时对脚型数据库中的参考脚型模型求法向量等参数;(2)根据多视角立体几何的约束关系,检测视频帧中的特征点并进行匹配,计算摄像机内外参数,恢复特征点对应的三维点云坐标;(3)加入IMU数据,对步骤2得到的摄像机参数和三维点云坐标进行修正,包括修复多视角算法失败无法求得摄像机参数的情况和移动三维点云坐标以减小三维坐标计算误差;(4)从已有的脚型数据库中选择相似的参考脚型模型,对齐重建脚型模型和参考脚型模型,并对重建脚型模型进行去噪、光滑、表面重建处理;(5)根据重建脚型模型和参考脚型模型之间的局部和整体对齐关系,对参考脚型模型进行形变使其拟合重建脚型模型,输出最终的重建脚型模型结果。2.根据权利要求1所述的一种通过智能手机采集脚型视频和传感器数据获取三维脚型的方法,其特征在于,所述步骤1具体包括以下子步骤:(1.1)用带有陀螺仪和加速计的智能手机绕脚360度拍摄视频一圈回到原点,拍摄时在脚底放置一张A4纸,拍摄过程中记录陀螺仪和加速计的数值。拍摄场景中的物体尺寸与真实尺寸之间的比例以A4纸作为参考。(1.2)将采集到的视频分解成视频帧,从视频帧中等间隔地选择部分帧进行分割前背景区域,得到视频帧对应的关于脚型区域的mask视频。通过检测视频帧中A4纸的角点和边获取A4纸区域,根据RGB像素值分割A4纸及在A4纸区域内的部分脚型区域。同时,对整幅视频帧进行边缘检测,得到包括脚型边缘在内的视频帧边缘视频。然后由A4纸区域内的脚型区域向外搜索填充,最终得到初步估计的脚型区域及非脚型区域。建立GMM模型,通过k-mean算法分别对脚型区域像素和非脚型区域像素进行聚类,得到GMM模型中每个高斯模型的像素样本集,然后根据RGB值计算每个高斯模型的参数均值和协方差,每个高斯模型的权值定义为属于该高斯模型的像素个数与总像素个数的比值。对每个像素分配GMM模型中的高斯模型,以给定的脚型区域和非脚型区域为参考学习优化GMM模型,迭代分割,最终得到对应视频帧的脚型轮廓视频。(1.3)用Kalibr工具箱对IMU进行标定,求出IMU到摄像机的旋转矩阵,利用该旋转矩阵变换摄像机坐标系和IMU坐标系。对于参考脚型模型,顶点vi的法向量由该顶点和周围k个邻近点共同确定。记顶点vi的第j个邻近点为(j∈1,…,k)。模型中心点为c,则法向量同时满足:其中Face{vi}为包含点vi的面片,几何意义为顶点vi的法向量由以该点为顶点的面片的法向量的权重和,方向为由中心点指向顶点外侧。最终得到每个顶点和每个面片的法向量。3.根据权利要求1所述的一种通过智能手机采集脚型视频和传感器数据获取三维脚型的方法,其特征在于,所述步骤2具体为:对每帧视频帧进行Brief和Freak特征点检测和提取,对视频帧两两进行特征匹配,计算单应矩阵,并按纯视觉方法计算基本矩阵、本质矩阵,对本质矩阵进行SVD分解求得初始的摄像机姿态参数,同时恢复特征点对应的三维点云坐标。4.根据权利要求1所述的一种通过智能手机采集脚型视频和传感器数据获取三维脚型的方法,其特征在于,所述步骤3具体包括以下子步骤:(3.1)对IMU数据做如下预处理。由于传感器频率和摄像机频率不一致,假设IMU数据和摄像机在从时间ti到tj的间隔时间Δt里同步,状态参数xi=[Ri,pi,vi,bi]记录了IMU数据的旋转Ri、位置pi、速度vi和传感器漂移偏差bi,而传感器漂移偏差bi又包括速度加速计和重力加速计的偏差。则视频帧对应的状态参数为IMU状态参数的子集。设白噪声和分别为重力加速计和速度加速计的噪声,角速度ωi,加速度ai,则有:状态参数求导后仍然为偏差b的函数,则可以采用分两步进行优化的方法,第一步假设b已知,对状态参数求梯度最优化,第二步中考虑到传感器移动时b有变化,为减少计算,当b变成bΔb时,梯度值只需要在原来的基础上增加由b变化带来的差值Δb即可。最后计算残差,得到IMU数据下的摄像机姿态。(3.2)结合IMU数据和视觉数据建立因子图。其中因子节点包括由视觉方法计算得到的摄像机姿态x′i,恢复的脚型三维点云坐标li、IMU状态参数xi,偏差ci等。记第k时刻IMU测量值为则因子图中各个约束可以表示为:IMU因子:偏差因子:fbias(Ck+1,ck)=d(ck+1-g(ck))先概率因子:视觉投影因子:fProj(x,l)=d(z-π(x,l))其中z表示真实的视频投影坐标,V为所有顶点的集合,π为投影函数。立体视觉因子:fStereo(x,l)=d(zR-πR(x,l))d(zL-πL(x,l))其中L和R分别对应左、右摄像头。闭环检测因子:fClose=sig(sij)*f(xi,uij)-xj其中sig()为sigmoid函数,sij记录传感器运动方向(正向、逆向),uij记录摄像机运动方向(正向、逆向),而f(xi,uij)为运动约束模型,可以看成是fIMU。(3.3)把因子图中因子函数分解成一般形式并进行优化,得到优化后的各个因子的值。5.根据权利要求1所述的一种通过智能手机采集脚型视频和传感器数据获取三维脚型的方法,...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。