机器人3D视觉手眼标定方法技术

技术编号:19468981 阅读:61 留言:0更新日期:2018-11-17 05:09
本发明专利技术公开了一种机器人3D视觉手眼标定方法,包括:S1.获取机器人法兰盘相对于机器人基坐标的姿态和标定板相对于3D传感器坐标系的姿态;S2.计算3D传感器坐标系相对于机器人基坐标系的旋转矩阵;S3.获取工件抓取点在3D传感器坐标系中的多组坐标数据,和在机器人底座基坐标系中对应的多组坐标数据;S4.计算3D传感器坐标系和机器人基坐标系的XYZ坐标轴的转换关系。与传统的手眼标定只用一个转换矩阵来描述3D传感器到机器人基坐标转换相比,本发明专利技术机器人3D视觉手眼标定方法分别得到了3D传感器到机器人基坐标位置和姿态的转换关系,相比现有技术而言更加灵活,更能满足实际工程应用中的精度要求,提高手眼标定精度。

【技术实现步骤摘要】
机器人3D视觉手眼标定方法
本专利技术属于机器人3D视觉标定
,具体涉及一种机器人3D视觉手眼标定方法。
技术介绍
智能制造的快速推进使得多关节机器人获得了长足发展,工业机器人已经参与到工业制造及生产的各个领域,成为工厂自动化、智能化进程中不可或缺的角色。机器视觉赋予了机器人眼睛,融合先进的图像处理、三维数据分析算法,以及人工智能技术的应用,使机器人动作不再局限于通过示教获得的点对点运动或者既定轨迹,而是在视觉的引导下进行更为灵活而智能的动作,在高精度检测以及工件抓取定位等方面的应用方兴未艾。相对于传统的2D视觉无法提供深度和曲面信息,机器人3D视觉更加符合人类“眼睛”的定义,3D传感器可以给机器人提供产品的位置和姿态信息,因此在工业上的应用也更加的灵活,在物流分拣,上下料,汽车零部件抓取等领域有着非常广阔的应用前景,诚然,相比于传统的2D手眼标定,机器人3D视觉的手眼标定方法和算法更为复杂。现有的3D视觉手眼标定分为两种情况:Eye-in-Hand和Eye-to-Hand。第一种情况,3D传感器安装在机器人末端,随着机械手的运动而跟着一起运动,又称为眼在手上手眼标定;第二种情况,3D传感器安装在固定支架上,传感器和机器人底座的位置相对固定,又称为眼在手外手眼标定。机器人眼在手外的3D视觉手眼标定的核心是计算3D传感器坐标系相对于机器人基坐标系的转换关系,从而将3D传感器下获得的工件位置和姿态信息,转换成机器人基坐标下的位置和姿态。现有的技术大都用一个4×4的齐次转换矩阵来描述3D传感器坐标系到机器人基坐标系的转换关系,这个齐次矩阵包含了一个3×3的旋转矩阵和一个3×1的平移向量。然而在实际的工业应用中,由于3D传感器本身坐标系标定存在误差,机器人存在系统误差,转换矩阵的计算误差和一些其他因素的影响,仅用一个矩阵来表达整个3D传感器坐标系和机器人基座标系的关系,得到的精度往往难以满足要求。例如文献[TsaiRY,LenzRK.Anewtechniqueforfullyautonomousandefficient3Droboticshand/eyecalibration[J].IEEETransactionsonRoboticsandAutomation,1989,5(3):345-358]提出的3D机器人手眼标定办法中分两步来求解手眼转换矩阵,先求解旋转矩阵,再利用计算得到的旋转矩阵来求解平移向量,因此把旋转矩阵计算的误差也带入到了平移向量中,导致精度不够。再例如Halcon机器视觉软件中的机器人3D视觉手眼标定的模块,经实验测试得到的平移变换部分均方根误差为2mm左右,无法满足实际工业应用的精度要求。此外,目前的一些手眼标定方法对于标定过程中的机械手以及标定板等其他辅助设施的物理精度要求很高,增加了标定成本。如申请号为201710856392.5的中国专利提出一种全自动手眼标定方法及装置,采用了实心圆和空心圆非对称式排列结构的高精度陶瓷相机标定板,对于标定板的精度要求很高。因此为了满足实际工业应用的手眼标定精度要求和降低标定成本,急需提出一种新的机器人3D视觉手眼标定方法。
技术实现思路
鉴于上述,本专利技术提供了一种机器人3D视觉手眼标定方法,能够提高机器人3D手眼标定的精度。一种机器人3D视觉手眼标定方法,包括如下步骤:(1)将标定板安装在机器人的法兰盘上,通过移动机器人手臂末端从而改变法兰盘的位置和姿态,获取法兰盘在机器人底座基坐标系中的n组姿态数据以及标定板在3D传感器坐标系中的n组姿态数据,n为大于3的自然数;所述3D传感器用于采集机器人所要抓取工件的三维图像信息,所述标定板表面背景为黑色且表面上有三个白色的点p1~p3:p1点在标定板的中心位置,p2点在标定板沿中心的X轴方向上,p3点在标定板沿中心的Y轴方向上;(2)将法兰盘在机器人底座基坐标系中的n组姿态数据转换成对应的旋转矩阵A1~An,同时将标定板在3D传感器坐标系中的n组姿态数据也转换成对应的旋转矩阵B1~Bn;(3)根据步骤(2)中得到的旋转矩阵计算出3D传感器坐标系相对于机器人底座基坐标系的旋转变换矩阵baseRcam;(4)利用机器人手爪抓取工件到3D传感器下方以采集三维图像,获取工件抓取点在3D传感器坐标系中的多组坐标数据,并从机器人示教器中读取工件抓取点在机器人底座基坐标系中的多组坐标数据;(5)利用步骤(4)中得到的坐标数据拟合计算出3D传感器坐标系与机器人底座基坐标系之间的线性变换参数。进一步地,所述步骤(2)中对于法兰盘在机器人底座基坐标系中的任一组姿态数据,通过以下关系式将其转换成对应法兰盘坐标系相对于机器人底座基坐标系的旋转矩阵Ai:其中:(RXi,RYi,RZi)为法兰盘在机器人底座基坐标系中的第i组姿态数据,RXi、RYi、RZi分别为法兰盘在机器人底座基坐标系中相对X、Y、Z轴的欧拉角,c1=cos(RXi),s1=sin(RXi),c2=cos(RYi),s2=sin(RYi),c3=cos(RZi),s3=sin(RZi),i为自然数且1≤i≤n。进一步地,所述步骤(2)中对于标定板在3D传感器坐标系中的任一组姿态数据,通过以下关系式将其转换成对应标定板坐标系相对于3D传感器坐标系的旋转矩阵Bi:其中:建立以p1点为原点的标定板坐标系X'-Y'-Z',[x1,y1,z1]T为对应时刻3D传感器坐标系下标定板X'轴方向上的单位向量,[x2,y2,z2]T为对应时刻3D传感器坐标系下标定板Y'轴方向上的单位向量,[x3,y3,z3]T为对应时刻3D传感器坐标系下标定板Z'轴方向上的单位向量。进一步地,所述步骤(3)中通过多组以下关系式计算出3D传感器坐标系相对于机器人底座基坐标系的旋转变换矩阵baseRcam:Ai-1×baseRcam×Bi=Aj-1×baseRcam×Bj其中:旋转变换矩阵baseRcam为3×3大小的矩阵,i和j均为自然数且1≤i≤n,1≤j≤n,i≠j。进一步地,所述步骤(5)中通过多组以下关系式拟合计算出3D传感器坐标系与机器人底座基坐标系之间的线性变换参数:Xrob=a1×Xcam+b1×Ycam+c1×Zcam+d1Yrob=a2×Xcam+b2×Ycam+c2×Zcam+d2Zrob=a3×Xcam+b3×Ycam+c3×Zcam+d3其中:(Xcam,Ycam,Zcam)为抓取过程中的某一时刻工件抓取点在3D传感器坐标系中的坐标,(Xrob,Yrob,Zrob)为该时刻工件抓取点在机器人底座基坐标系中的坐标,a1~a3、b1~b3、c1~c3、d1~d3均为3D传感器坐标系与机器人底座基坐标系之间的线性变换参数。与传统的手眼标定只用一个转换矩阵来描述3D传感器到机器人基坐标转换相比,本专利技术的机器人3D视觉手眼标定方法分别用两组参数模型来表述3D传感器到机器人基坐标系的位置和角度变换关系,相比现有技术而言更加灵活,更能满足实际工程应用中的精度要求,提高手眼标定精度。此外,本专利技术除了标定板外不需要额外的硬件设备辅助,通过再现示教机器人移动标定板和工件获取姿态,实现半自动手眼标定。附图说明图1为本专利技术3D手眼标定系统的示意图。图2为标定板的示意图。图3为标定板在3D传本文档来自技高网
...

【技术保护点】
1.一种机器人3D视觉手眼标定方法,包括如下步骤:(1)将标定板安装在机器人的法兰盘上,通过移动机器人手臂末端从而改变法兰盘的位置和姿态,获取法兰盘在机器人底座基坐标系中的n组姿态数据以及标定板在3D传感器坐标系中的n组姿态数据,n为大于3的自然数;(2)将法兰盘在机器人底座基坐标系中的n组姿态数据转换成对应的旋转矩阵A1~An,同时将标定板在3D传感器坐标系中的n组姿态数据也转换成对应的旋转矩阵B1~Bn;(3)根据步骤(2)中得到的旋转矩阵计算出3D传感器坐标系相对于机器人底座基坐标系的旋转变换矩阵baseRcam;(4)利用机器人手爪抓取工件到3D传感器下方以采集三维图像,获取工件抓取点在3D传感器坐标系中的多组坐标数据,并从机器人示教器中读取工件抓取点在机器人底座基坐标系中的多组坐标数据;(5)利用步骤(4)中得到的坐标数据拟合计算出3D传感器坐标系与机器人底座基坐标系之间的线性变换参数。

【技术特征摘要】
1.一种机器人3D视觉手眼标定方法,包括如下步骤:(1)将标定板安装在机器人的法兰盘上,通过移动机器人手臂末端从而改变法兰盘的位置和姿态,获取法兰盘在机器人底座基坐标系中的n组姿态数据以及标定板在3D传感器坐标系中的n组姿态数据,n为大于3的自然数;(2)将法兰盘在机器人底座基坐标系中的n组姿态数据转换成对应的旋转矩阵A1~An,同时将标定板在3D传感器坐标系中的n组姿态数据也转换成对应的旋转矩阵B1~Bn;(3)根据步骤(2)中得到的旋转矩阵计算出3D传感器坐标系相对于机器人底座基坐标系的旋转变换矩阵baseRcam;(4)利用机器人手爪抓取工件到3D传感器下方以采集三维图像,获取工件抓取点在3D传感器坐标系中的多组坐标数据,并从机器人示教器中读取工件抓取点在机器人底座基坐标系中的多组坐标数据;(5)利用步骤(4)中得到的坐标数据拟合计算出3D传感器坐标系与机器人底座基坐标系之间的线性变换参数。2.根据权利要求1所述的机器人3D视觉手眼标定方法,其特征在于:所述步骤(2)中对于法兰盘在机器人底座基坐标系中的任一组姿态数据,通过以下关系式将其转换成对应法兰盘坐标系相对于机器人底座基坐标系的旋转矩阵Ai:其中:(RXi,RYi,RZi)为法兰盘在机器人底座基坐标系中的第i组姿态数据,RXi、RYi、RZi分别为法兰盘在机器人底座基坐标系中相对X、Y、Z轴的欧拉角,c1=cos(RXi),s1=sin(RXi),c2=cos(RYi),s2=sin(RYi),c3=cos(RZi),s3=sin(RZi),i为自然数且1≤i≤n。3.根据权利要求1所述的机器人3D视觉手眼标定方法,其特征在于:所述3D传感器用于采集机器人所要抓取工件的三维图像信息,所述标定板表面背景为黑色且表面上有三个白色的点p1~p3:p1点在标定板的中心位置,p2点在标定板沿中心的X轴方向上,p3点在标定板沿中心的Y轴方向上。4.根据权利要求3所述的机器人3D视觉手眼标定方法,其特征在于:所述步骤(2)中对于标定板在3D传感器坐标系中的任一组姿态数据,通过以下关系式将其转换...

【专利技术属性】
技术研发人员:付雨蒋鑫巍陈贵
申请(专利权)人:杭州汉振科技有限公司
类型:发明
国别省市:浙江,33

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1