当前位置: 首页 > 专利查询>华侨大学专利>正文

一种结构光视觉系统的下一最佳测量位姿确定方法技术方案

技术编号:21179049 阅读:32 留言:0更新日期:2019-05-22 12:48
本发明专利技术针对机器人视觉自动测量中下一最佳测量位姿确定问题,公开了一种新颖的结构光视觉系统的下一最佳测量位姿确定方法。该方法首先采用结构光双目视觉测量系统获得被测物体的深度图像和三维点云,通过深度图像快速获取被测物体的边缘与密度聚类分析区域。基于密度聚类方法判定物体边缘区域三维形貌的复杂程度,结合视场大小确定子区域权重,从而获得深度图上下一视场最佳移动方向。采用趋势面分析法预测下一最佳测量位姿的空间范围。为避免边缘局部复杂程度对趋势面的影响,以深度图像上的测量视场为中心获得趋势面分析全局区域,并快速获得中心趋势线以确定出下一最佳测量位姿。

A Method for Determining the Next Best Measured Pose and Attitude of Structured Light Vision System

The invention discloses a novel method for determining the next best measurement position and pose of a structured light vision system, aiming at the problem of determining the next best measurement position and pose in robot vision automatic measurement. Firstly, the depth image and three-dimensional point cloud of the measured object are obtained by using the structured light binocular vision measurement system, and the edge and density clustering analysis region of the measured object are quickly obtained by the depth image. Based on the density clustering method, the complexity of the three-dimensional shape of the object's edge region is determined, and the weight of the sub-region is determined according to the size of the field of view, so as to obtain the best moving direction of the next field of view on the depth map. Trend surface analysis is used to predict the spatial range of the next best measurement posture. In order to avoid the influence of local edge complexity on trend surface, the global region of trend surface analysis is obtained by taking the measurement field of view on depth image as the center, and the central trend line is quickly obtained to determine the next best measurement posture.

【技术实现步骤摘要】
一种结构光视觉系统的下一最佳测量位姿确定方法
本专利技术涉及机器人自动测量方法,特别是指一种一种结构光视觉系统的下一最佳测量位姿确定方法。
技术介绍
结构光三维测量技术已经得到了广泛的应用,然而在实际测量中,受限于系统测量视场范围和物体复杂程度等原因,对大尺寸或者表面形貌较为复杂的物体,一次测量难以获得物体完整的形貌,需要从不同角度多次测量并拼合才能获得完整的物体。被测物体越复杂或者其尺寸与视场大小之间的比例越大,则需要测量次数就越多,甚至达到成千上百次。如此繁重的测量任务使得自动测量变得非常重要,而下一个最佳测量位姿的确定是实现自动测量的前提与关键所在,也是三维重建、机器人导航、自动装配等领域亟待解决的难题之一。在对未知模型的自动测量中,为了每次获得尽可能多的点云信息,需要根据当前信息判断下一最佳测量位姿。何炳蔚等在论文“线激光三维测量仪中视觉传感器规划方法研究”(中国激光,2010,37(6):1618-1625.)中提出可视空间与极限面相结合的视点规划策略来确定下一最佳视点的位置。张世辉等在论文“基于深度图像利用遮挡信息确定下一最佳观测方位”(计算机学报,2015,38(12),P2450-2463)中从消除被测物体的自遮挡区域入手,确定下一最优视点。在二维深度图像中识别已测得数据中的自遮挡区域,计算可消除自遮挡区域的视点,并结合遮挡区域的向量和面积构建下一最佳观测方位的模型。随后利用梯度下降法寻优求得模型的最优解确定下一最优视点。综上所述,虽然目前对自动三维测量中下一最优视点的确定方法已有所研究,取得了一定成果,但资料报道并不多,涉及的关键技术亟待进一步研究。
技术实现思路
本专利技术的主要目的在于克服现有技术中的上述缺陷,提出一种新颖的结构光视觉系统的下一最佳测量位姿确定方法。本专利技术采用如下技术方案:一种结构光视觉系统的下一最佳测量位姿确定方法,其特征在于,包括如下步骤:A1、获取被测物体初始位置的深度图像和三维点云;A2、通过深度图像获取被测物体的边缘,根据有效测量范围确定下一最佳位姿判定所需的区域;A3、对区域内三维点云进行密度聚类,依据密度与三维形貌复杂程度关系,获得各个子区域的复杂系数;A4、结合视场大小优化各个子区域权重,从而确定深度图上最佳移动方向;A5、以测量视场为中心,结合深度图像获得趋势面,分析全局区域以及中心趋势线,从而确定出下一最佳测量位姿。所述A2包括如下:首先,在深度图像上采用Canny算子边缘提取法快速识别出物体的边缘;再采用区域宽度t的计算方法确定所述区域,公式如下:其中a为视场长度,b为视场宽度,表示将面积转化为矩形平均宽度,S为有效测量区域面积,c为边缘区域面积与有效区域面积之比,k1为轮廓修正系数,l为有效测量区域长度。所述A3包括如下:设待聚类的点集为data={x1,x2,...,xn},令Idata={1,2,…,n}为相应的指标集,n为总点数,则点xi的局部密度系数ρi即各个子区域的复杂系数计算公式为:其中dij为点xi和xj之间的欧式距离,dc为截断距离,设定i与j属于Idata的下标,函数所述A4中,以当前测量视场中心与密度最大聚类中心的连线作为所述最佳移动方向,具体如下:当前视场中心与下一视场中心的距离为R,其中,x为X轴坐标,k为两视场中心连线的斜率。考虑各个区域权重引入评估值δ,评估值δ最大的方向即为所述最佳移动方向:δ=∑ωi其中ωi表示子区域权重,根据求得,li表示各个聚类中心离当前测量视场中心在移动方向上的距离。所述A5具体包括如下:A5.1、在深度图像上,以当前测量视场中心为原点,以最佳移动方向重叠视场大小为约束,快速获得趋势面分析全场区域,利用深度图像像素与三维点云对应关系,获取趋势面拟合所需三维数据;A5.2、采用该三维数据来拟合趋势面,数学模型为:z=a0+a1x+a2y+a3x2+a4xy+a5y2其中a0,a1,a2,a3,a4,a5为多项式系数,x、y为各个三维点的XY平面坐标值;A5.3、根据深度图像快速获得最佳移动方向上通过视场中心与聚类中心的三维点云数据,并拟合出空间平面,该平面与趋势面相交确定一条空间曲线,该空间平面的方程为:Ax+By+Cz+D=0其中A、B、C、D为空间平面拟合系数,x、y、z为各个三维点的三个坐标值;A5.4、记当前测量视场中心点为PA(xA,yA,zA),下一个测量中心轴与预测趋势面的交点为PB(xB,yB,zB)即下一最佳测量视场中心,点PB可由以下方程组求出:Rk为PA和PB之间的三维欧式距离,求出PB在趋势面上的法向,在该法向方向上计算离点PB为物距L的点PP(xp,yp,zp),该点PP即为所述下一最佳测量位姿。由上述对本专利技术的描述可知,与现有技术相比,本专利技术具有如下有益效果:(1)充分利用深度图像进行边缘识别、区域划分、趋势面分析全场区域与中心趋势线提取等算法的实现,具有计算量小、效率高的优点;(2)建立三维点云密度与复杂程度的关系,以密度聚类方法快速获悉物体表面复杂程度,降低了数据处理难度;(3)结合视场大小与重叠区域要求,确定聚类姿区域权重,进一步优化了下一最佳视场移动的方向,为算法的稳定性提供了保证。(4)以深度图像为中介,结合最佳移动方向上视场大小约束,获得了趋势面分析全场区域,避免陷入局部表面信息拟合导致预测未知区域与实际不符。附图说明图1是本专利技术的流程图;图2是本专利技术胡巴深度图像;图3是本专利技术胡巴边缘区域三维点云图;图4是本专利技术胡巴密度聚类区域图;图5是本专利技术最佳移动方向示意图;图6是本专利技术下一最佳观测方位确定图;图7是本专利技术胡巴整体视点图;以下结合附图和具体实施例对本专利技术作进一步详述。具体实施方式以下通过具体实施方式对本专利技术作进一步的描述。本专利技术提出一种结构光视觉系统的下一最佳测量位姿确定方法,以胡巴模型测量为例,参见图2。整体过程流程图如图1所示,具体步骤如下:A1、通过结构光视觉测量系统获得初始位置被测物体的深度图像和三维点云;本例中采用结构光双目视觉系统对胡巴进行机器人自动测量。测量系统由两个工业相机和一个数字投影仪组成。测量方式基于双目视差原理,采用格雷码与相移光栅相结合的方法进行立体匹配。可测量区域为左、右摄像机、投影仪的公共区域,通过立体匹配可以获得该视角下的深度图像和三维点云。A2、通过深度图像获取被测物体的边缘,根据有效测量范围确定下一最佳位姿判定所需的区域,参见图3、图4,。首先在深度图像上采用Canny算子边缘提取法快速识别出物体的边缘;然后考虑视场大小、有效测量区域、物体形状等因素,提出了在边缘提取一定的区域作为聚类分析的区域,其区域宽度t的计算方法,公式如下:其中a为视场长度,b为视场宽度,表示将面积转化为矩形平均宽度,S为有效测量区域面积,c为边缘区域面积与有效区域面积之比,根据实验经验一般取10%-20%,k1为轮廓修正系数,根据有效测量区域长度l与有效测量区域面积S计算,即为理想情况正方形有效测量区域的周长。A3、对区域内三维点云进行密度聚类,依据密度与三维形貌复杂程度关系,获得各个子区域的复杂系数;设待聚类的点集为data={x1,x2,...,xn},令Idata={1,2,...,n}为相应的指标集,n为总点数,则点xi的局部本文档来自技高网
...

【技术保护点】
1.一种结构光视觉系统的下一最佳测量位姿确定方法,其特征在于,包括如下步骤:A1、获取被测物体初始位置的深度图像和三维点云;A2、通过深度图像获取被测物体的边缘,根据有效测量范围确定下一最佳位姿判定所需的区域;A3、对区域内三维点云进行密度聚类,依据密度与三维形貌复杂程度关系,获得各个子区域的复杂系数;A4、结合视场大小优化各个子区域权重,从而确定深度图上最佳移动方向;A5、以测量视场为中心,结合深度图像获得趋势面,分析全局区域以及中心趋势线,从而确定出下一最佳测量位姿。

【技术特征摘要】
1.一种结构光视觉系统的下一最佳测量位姿确定方法,其特征在于,包括如下步骤:A1、获取被测物体初始位置的深度图像和三维点云;A2、通过深度图像获取被测物体的边缘,根据有效测量范围确定下一最佳位姿判定所需的区域;A3、对区域内三维点云进行密度聚类,依据密度与三维形貌复杂程度关系,获得各个子区域的复杂系数;A4、结合视场大小优化各个子区域权重,从而确定深度图上最佳移动方向;A5、以测量视场为中心,结合深度图像获得趋势面,分析全局区域以及中心趋势线,从而确定出下一最佳测量位姿。2.如权利要求1所述的一种结构光视觉系统的下一最佳测量位姿确定方法,其特征在于,所述A2包括如下:首先,在深度图像上采用Canny算子边缘提取法快速识别出物体的边缘;再采用区域宽度t的计算方法确定所述区域,公式如下:其中a为视场长度,b为视场宽度,表示将面积转化为矩形平均宽度,S为有效测量区域面积,c为边缘区域面积与有效区域面积之比,k1为轮廓修正系数,l为有效测量区域长度。3.如权利要求2所述的一种结构光视觉系统的下一最佳测量位姿确定方法,其特征在于,所述A3包括如下:设待聚类的点集为data={x1,x2,...,xn},令Idata={1,2,...,n}为相应的指标集,n为总点数,则点xi的局部密度系数ρi即各个子区域的复杂系数计算公式为:其中dij为点xi和xj之间的欧式距离,dc为截断距离,设定i与j属于Idata的下标,函数4.如权利要求3所述的一种结构光视觉系统的下一最佳测量位姿确定方法,其特征在于,所述A4中,以当前测量视场中心与密度最大聚类...

【专利技术属性】
技术研发人员:林俊义江开勇李龙喜黄常标刘华
申请(专利权)人:华侨大学
类型:发明
国别省市:福建,35

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1