The invention discloses a robot self-calibration method based on monocular vision assisted positioning, which includes the following steps: establishing the kinematics model of the robot, the end position error model and the parameter error model of the robot connecting rod based on plane constraint; locating the constraint plane; inputting the position value of the constraint plane obtained after stereo matching into the robot control system to drive the robot pair. The constraint plane is measured, the parameters of the robot's connecting rod are identified, and the calibration accuracy of the robot is achieved by modifying the parameters of the connecting rod, and the above steps are coded to achieve integration and packaging, which can realize the automatic one-key self-calibration of the robot. The advantages of the present invention are as follows: firstly, by adding a monocular vision system, the position of the constraint plane can be automatically acquired, thereby avoiding manual teaching and measurement.
【技术实现步骤摘要】
一种基于单目视觉辅助定位的机器人自标定方法
本专利技术涉及机器人自标定方法的
,尤其涉及一种基于单目视觉辅助定位的机器人自标定方法。
技术介绍
近年来机器人定位精度是衡量其工作性能的一个重要指标,目前,国内外厂家生产出来的机器人由于制造、安装等因素,大多绝对定位精度不高,无法满足高精加工以及离线编程的需要,因此,对引起机器人定位误差的各种因素进行分析,最大可能地提高机器人绝对定位精度已经成为机器人技术研究中的核心内容。目前,国内外常用的机器人标定方法通常需要借助于外界先进的测量设备,成本高,且测量过程复杂,需要专业人员进行操作;同时,由于涉及到测量坐标系与机器人基坐标系的转换过程,容易引入坐标系环误差,且该误差与机器人连杆参数误差不属于同类误差,需要单独处理,过程较复杂。为了降低成本等因素,很多研究人员提出了闭环法标定,即给机器人末端附加一约束,用的较多的是面约束(平面或球面),然而在对这些面进行接触式测量时,大多采用人工手动示教的方式,测量过程费时费力,效率很低。为了提高标定的效率,有研究人员提出了双目视觉辅助定位等方法,测量效率有所提高,但无法实现完全的自动化标定。
技术实现思路
本部分的目的在于概述本专利技术的实施例的一些方面以及简要介绍一些较佳实施例。在本部分以及本申请的说明书摘要和专利技术名称中可能会做些简化或省略以避免使本部分、说明书摘要和专利技术名称的目的模糊,而这种简化或省略不能用于限制本专利技术的范围。鉴于上述现有存在的问题,提出了本专利技术。因此,本专利技术目的是在一般平面约束(手动示教进行接触式测量)及视觉辅助定位的基础上,提供一种 ...
【技术保护点】
1.一种基于单目视觉辅助定位的机器人自标定方法,其特征在于:包括以下步骤,建立机器人运动学模型、末端位置误差模型以及基于平面约束的机器人连杆参数误差模型;定位约束平面,包括将给定已知特征的约束平面放置于机器人工作空间内,通过单目视觉系统辅助捕捉具有完整已知特征所述约束平面的图像,并通过已知特征与图像进行立体匹配,获取所述约束平面在机器人坐标系下的三维位置信息;将立体匹配后得到的约束平面位置值输入到机器人控制系统中,驱动机器人对所述约束平面进行测量;进行机器人连杆参数辨识,通过修正连杆参数达到机器人的标定精度;且将上述步骤进行代码编写实现集成和封装,能够实现机器人全自动化的一键自标定。
【技术特征摘要】
1.一种基于单目视觉辅助定位的机器人自标定方法,其特征在于:包括以下步骤,建立机器人运动学模型、末端位置误差模型以及基于平面约束的机器人连杆参数误差模型;定位约束平面,包括将给定已知特征的约束平面放置于机器人工作空间内,通过单目视觉系统辅助捕捉具有完整已知特征所述约束平面的图像,并通过已知特征与图像进行立体匹配,获取所述约束平面在机器人坐标系下的三维位置信息;将立体匹配后得到的约束平面位置值输入到机器人控制系统中,驱动机器人对所述约束平面进行测量;进行机器人连杆参数辨识,通过修正连杆参数达到机器人的标定精度;且将上述步骤进行代码编写实现集成和封装,能够实现机器人全自动化的一键自标定。2.如权利要求1所述的基于单目视觉辅助定位的机器人自标定方法,其特征在于:所述建立机器人运动学模型包括,建立D-H法与MD-H法相结合的机器人运动学模型,将坐标系i-1到坐标系i的变换过程描述为Ai,Ai=f(αi-1,ai-1,di,θi,βi),则机器人末端坐标系n相对于基坐标系的位姿矩阵0Tn为:0Tn=A0·A1·...·An。3.如权利要求1或2所述的基于单目视觉辅助定位的机器人自标定方法,其特征在于:所述建立机器人末端位置误差模型包括,按照微分变换的思想对Ai进行全微分,得到由连杆几何参数误差造成的相邻坐标系间的微分摄动齐次矩阵dAi:δAi是关节坐标系i相对于坐标系i-1的微分变换,则机器人相邻两连杆之间的实际齐次坐标变换即Ai+AiδAi,那么机器人末端坐标系相对于基坐标系的实际齐次变换矩阵TR为:将上式展开,并略去高阶摄动项,化简后得到下式:其中,△P=[dPxdPydPz]T是机器人位置误差矩阵,J为3×(4n+1)连杆参数的微分变换雅可比矩阵,△X=[△α△a△θ△d△β]T为(4n+1)×1连杆参数误差矩阵。4.如权利要求3所述的基于单目视觉辅助定位的机器人自标定方法,其特征在于:所述建立基于平面约束的机器人连杆参数误差模型包括,设为约束平面上第i个接触点的名义位置值,可通过机器人正运动学直接计算,Ji为该位置处的雅克比矩阵,可通过关节角度值计算得到,实际位置PiR=PiN+Ji△X,则相邻两接触点间的偏差向量:其中,同样地,那么由相邻的两个偏差向量可构建一垂直于平面的名义法向量:同样地,那么:。5.如...
【专利技术属性】
技术研发人员:李楠,平雪良,刘潇潇,蒋毅,
申请(专利权)人:江南大学,
类型:发明
国别省市:江苏,32
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。