当前位置: 首页 > 专利查询>江南大学专利>正文

一种基于单目视觉辅助定位的机器人自标定方法技术

技术编号:20534808 阅读:23 留言:0更新日期:2019-03-09 05:14
本发明专利技术公开了一种基于单目视觉辅助定位的机器人自标定方法,包括以下步骤,建立机器人运动学模型、末端位置误差模型以及基于平面约束的机器人连杆参数误差模型;定位约束平面;将立体匹配后得到的约束平面位置值输入到机器人控制系统中,驱动机器人对所述约束平面进行测量;进行机器人连杆参数辨识,通过修正连杆参数达到机器人的标定精度;且将上述步骤进行代码编写实现集成和封装,能够实现机器人全自动化的一键自标定。本发明专利技术的有益效果:一是通过附加单目视觉系统,自动获取约束平面位置,从而避免手动示教测量。

A Robot Self-calibration Method Based on Monocular Vision Aided Location

The invention discloses a robot self-calibration method based on monocular vision assisted positioning, which includes the following steps: establishing the kinematics model of the robot, the end position error model and the parameter error model of the robot connecting rod based on plane constraint; locating the constraint plane; inputting the position value of the constraint plane obtained after stereo matching into the robot control system to drive the robot pair. The constraint plane is measured, the parameters of the robot's connecting rod are identified, and the calibration accuracy of the robot is achieved by modifying the parameters of the connecting rod, and the above steps are coded to achieve integration and packaging, which can realize the automatic one-key self-calibration of the robot. The advantages of the present invention are as follows: firstly, by adding a monocular vision system, the position of the constraint plane can be automatically acquired, thereby avoiding manual teaching and measurement.

【技术实现步骤摘要】
一种基于单目视觉辅助定位的机器人自标定方法
本专利技术涉及机器人自标定方法的
,尤其涉及一种基于单目视觉辅助定位的机器人自标定方法。
技术介绍
近年来机器人定位精度是衡量其工作性能的一个重要指标,目前,国内外厂家生产出来的机器人由于制造、安装等因素,大多绝对定位精度不高,无法满足高精加工以及离线编程的需要,因此,对引起机器人定位误差的各种因素进行分析,最大可能地提高机器人绝对定位精度已经成为机器人技术研究中的核心内容。目前,国内外常用的机器人标定方法通常需要借助于外界先进的测量设备,成本高,且测量过程复杂,需要专业人员进行操作;同时,由于涉及到测量坐标系与机器人基坐标系的转换过程,容易引入坐标系环误差,且该误差与机器人连杆参数误差不属于同类误差,需要单独处理,过程较复杂。为了降低成本等因素,很多研究人员提出了闭环法标定,即给机器人末端附加一约束,用的较多的是面约束(平面或球面),然而在对这些面进行接触式测量时,大多采用人工手动示教的方式,测量过程费时费力,效率很低。为了提高标定的效率,有研究人员提出了双目视觉辅助定位等方法,测量效率有所提高,但无法实现完全的自动化标定。
技术实现思路
本部分的目的在于概述本专利技术的实施例的一些方面以及简要介绍一些较佳实施例。在本部分以及本申请的说明书摘要和专利技术名称中可能会做些简化或省略以避免使本部分、说明书摘要和专利技术名称的目的模糊,而这种简化或省略不能用于限制本专利技术的范围。鉴于上述现有存在的问题,提出了本专利技术。因此,本专利技术目的是在一般平面约束(手动示教进行接触式测量)及视觉辅助定位的基础上,提供一种基于单目视觉辅助定位的机器人自标定方法,该方法首先通过单目视觉在机器人工作空间中获取图像,进行图像处理判断约束图像是否在视野中,使机器人自动对任意放置在工作空间中的约束平面进行寻找;然后再通过单目视觉对约束平面进行定位,获得其坐标信息,输入到机器人控制系统,控制机器人自动对约束平面进行接触式测量,在继承一般平面约束标定方法优点的同时,又大大提高了标定效率;全部过程可编程实现,即实现了真正的一键式自标定,并且,可通过编程使约束点按一定规律有序排列,可为后期研究约束点对机器人标定结果的影响奠定基础;同时,单目视觉相对于双目视觉而言,极大地降低了对相机等硬件设备的要求,成本低,标定简单,且单目视觉的计算量相对较小。为解决上述技术问题,本专利技术提供如下技术方案:一种基于单目视觉辅助定位的机器人自标定方法,包括以下步骤,建立机器人运动学模型、末端位置误差模型以及基于平面约束的机器人连杆参数误差模型;定位约束平面,包括将给定已知特征的约束平面放置于机器人工作空间内,通过单目视觉系统辅助捕捉具有完整已知特征所述约束平面的图像,并通过已知特征与图像进行立体匹配,获取所述约束平面在机器人坐标系下的三维位置信息;将立体匹配后得到的约束平面位置值输入到机器人控制系统中,驱动机器人对所述约束平面进行测量;进行机器人连杆参数辨识,通过修正连杆参数达到机器人的标定精度;且将上述步骤进行代码编写实现集成和封装,能够实现机器人全自动化的一键自标定。作为本专利技术所述的基于单目视觉的机器人一键自标定方法的一种优选方案,其中:所述建立机器人运动学模型包括,建立D-H法与MD-H法相结合的机器人运动学模型,将坐标系i-1到坐标系i的变换过程描述为Ai,Ai=f(αi-1,ai-1,di,θi,βi),则机器人末端坐标系n相对于基坐标系的位姿矩阵0Tn为:0Tn=A0·A1·...·An作为本专利技术所述的基于单目视觉的机器人一键自标定方法的一种优选方案,其中:所述建立机器人末端位置误差模型包括,按照微分变换的思想对Ai进行全微分,得到由连杆几何参数误差造成的相邻坐标系间的微分摄动齐次矩阵dAi:δAi是关节坐标系i相对于坐标系i-1的微分变换,则机器人相邻两连杆之间的实际齐次坐标变换即Ai+AiδAi,那么机器人末端坐标系相对于基坐标系的实际齐次变换矩阵TR为:将上式展开,并略去高阶摄动项,化简后得到下式:其中,△P=[dPxdPydPz]T是机器人位置误差矩阵,J为3×(4n+1)连杆参数的微分变换雅可比矩阵,△X=[△α△a△θ△d△β]T为(4n+1)×1连杆参数误差矩阵;作为本专利技术所述的基于单目视觉的机器人一键自标定方法的一种优选方案,其中:所述建立基于平面约束的机器人连杆参数误差模型包括,设为约束平面上第i个接触点的名义位置值,可通过机器人正运动学直接计算,Ji为该位置处的雅克比矩阵,可通过关节角度值计算得到,实际位置PiR=PiN+Ji△X,则相邻两接触点间的偏差向量:其中,同样地,那么由相邻的两个偏差向量可构建一垂直于平面的名义法向量:同样地,那么:作为本专利技术所述的基于单目视觉的机器人一键自标定方法的一种优选方案,其中:所述定位约束平面还包括,对相机进行张正友内参标定及手眼标定,控制相机在机器人工作空间内捕捉图像,对获得的图像进行分析处理;若该图像中无约束平面特征,则控制机器人移动,然后重新获取新位置的图像;若该图像中约束平面特征不完整,则根据图中特征对机器人位置进行调整,然后重新获取新位置的图像;若该图像中有完整的约束平面特征,则通过已知特征与图像进行立体匹配,从而获得约束平面在机器人坐标系下的三维位置信息。作为本专利技术所述的基于单目视觉的机器人一键自标定方法的一种优选方案,其中:所述驱动机器人对约束平面进行测量包括,将立体匹配后得到的约束平面位置值输入到机器人控制系统,驱动机器人对约束平面进行接触式测量,当测量头输出有接触信号时,立即记录当前各关节角度值,并对下一个约束点进行测量,若采集N+3个点:N0,N1,…,NN+2,则有:H△X+S=0其中,则可产生3N个方程。作为本专利技术所述的基于单目视觉的机器人一键自标定方法的一种优选方案,其中:所述机器人连杆参数辨识包括,通过改进的最小二乘法,对机器人运动学参数误差进行辨识,如下:△X=-(HTH+μI)-1HTS约束点的数量要满足3N≥4n+1。作为本专利技术所述的基于单目视觉的机器人一键自标定方法的一种优选方案,其中:所述建立机器人运动学模型还区分为,当相邻关节轴线不平行时采用Craig提出的经典D-H法,其齐次坐标变换矩阵为:Ai=Rot(xi-1,αi-1)Trans(ai-1,0,di)Rot(zi-1,θi)当相邻关节轴线近似平行时采用在Craig法基础上提出的改进MD-H法,其齐次坐标变换矩阵为:Ai=Rot(xi-1,αi-1)Trans(ai-1,0,0)Rot(yi-1,βi)Trans(0,0,di)Rot(zi-1,θi)作为本专利技术所述的基于单目视觉的机器人一键自标定方法的一种优选方案,其中:所述约束平面上的测量点,能够通过编程方式实现按一定规律有序排列,为研究约束点对标定结果的影响奠定基础。作为本专利技术所述的基于单目视觉的机器人一键自标定方法的一种优选方案,其中:所述给定已知特征的约束平面的特征顶点能够是任意四边形,只需要各边长及夹角特征已知。本专利技术的有益效果:本专利技术提供的一种基于单目视觉的机器人一键自标定方法,成本低、精度高、测量效率高;一是通过附加单目视觉系统,自动获取约束平面位置,从而避免手动示教测量;二是能够通过编程方式实本文档来自技高网...

【技术保护点】
1.一种基于单目视觉辅助定位的机器人自标定方法,其特征在于:包括以下步骤,建立机器人运动学模型、末端位置误差模型以及基于平面约束的机器人连杆参数误差模型;定位约束平面,包括将给定已知特征的约束平面放置于机器人工作空间内,通过单目视觉系统辅助捕捉具有完整已知特征所述约束平面的图像,并通过已知特征与图像进行立体匹配,获取所述约束平面在机器人坐标系下的三维位置信息;将立体匹配后得到的约束平面位置值输入到机器人控制系统中,驱动机器人对所述约束平面进行测量;进行机器人连杆参数辨识,通过修正连杆参数达到机器人的标定精度;且将上述步骤进行代码编写实现集成和封装,能够实现机器人全自动化的一键自标定。

【技术特征摘要】
1.一种基于单目视觉辅助定位的机器人自标定方法,其特征在于:包括以下步骤,建立机器人运动学模型、末端位置误差模型以及基于平面约束的机器人连杆参数误差模型;定位约束平面,包括将给定已知特征的约束平面放置于机器人工作空间内,通过单目视觉系统辅助捕捉具有完整已知特征所述约束平面的图像,并通过已知特征与图像进行立体匹配,获取所述约束平面在机器人坐标系下的三维位置信息;将立体匹配后得到的约束平面位置值输入到机器人控制系统中,驱动机器人对所述约束平面进行测量;进行机器人连杆参数辨识,通过修正连杆参数达到机器人的标定精度;且将上述步骤进行代码编写实现集成和封装,能够实现机器人全自动化的一键自标定。2.如权利要求1所述的基于单目视觉辅助定位的机器人自标定方法,其特征在于:所述建立机器人运动学模型包括,建立D-H法与MD-H法相结合的机器人运动学模型,将坐标系i-1到坐标系i的变换过程描述为Ai,Ai=f(αi-1,ai-1,di,θi,βi),则机器人末端坐标系n相对于基坐标系的位姿矩阵0Tn为:0Tn=A0·A1·...·An。3.如权利要求1或2所述的基于单目视觉辅助定位的机器人自标定方法,其特征在于:所述建立机器人末端位置误差模型包括,按照微分变换的思想对Ai进行全微分,得到由连杆几何参数误差造成的相邻坐标系间的微分摄动齐次矩阵dAi:δAi是关节坐标系i相对于坐标系i-1的微分变换,则机器人相邻两连杆之间的实际齐次坐标变换即Ai+AiδAi,那么机器人末端坐标系相对于基坐标系的实际齐次变换矩阵TR为:将上式展开,并略去高阶摄动项,化简后得到下式:其中,△P=[dPxdPydPz]T是机器人位置误差矩阵,J为3×(4n+1)连杆参数的微分变换雅可比矩阵,△X=[△α△a△θ△d△β]T为(4n+1)×1连杆参数误差矩阵。4.如权利要求3所述的基于单目视觉辅助定位的机器人自标定方法,其特征在于:所述建立基于平面约束的机器人连杆参数误差模型包括,设为约束平面上第i个接触点的名义位置值,可通过机器人正运动学直接计算,Ji为该位置处的雅克比矩阵,可通过关节角度值计算得到,实际位置PiR=PiN+Ji△X,则相邻两接触点间的偏差向量:其中,同样地,那么由相邻的两个偏差向量可构建一垂直于平面的名义法向量:同样地,那么:。5.如...

【专利技术属性】
技术研发人员:李楠平雪良刘潇潇蒋毅
申请(专利权)人:江南大学
类型:发明
国别省市:江苏,32

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1