一种基于视觉测量的机器人标定及检测方法技术

技术编号:25256585 阅读:57 留言:0更新日期:2020-08-14 22:49
本发明专利技术公开一种基于视觉测量的机器人标定及检测的方法,所述方法包括以下步骤:1)相机的内部固有参数标定2)相机单目位姿估计采集点位误差3)移动机器人末端达到目标点位4)记录数据更改目标点5)建立误差模型6)迭代求解非线性超定方程组7)利用视觉测量的外部长度约束进行连杆长度修正并进行绕点精度检测。

【技术实现步骤摘要】
一种基于视觉测量的机器人标定及检测方法
本专利技术属于光电测量领域,具体涉及一种基于计算机视觉的机器人DH参数误差辨识和结果检测的方法。
技术介绍
工业机器人绝对定位精度是它的重要性能指标,而它的绝对定位精度由于制造,装配等原因一直都是毫米级精度,无法满足高精度加工的要求。机器人目前广泛采用离线示教编程,利用机器人较高的重复定位精度实现高精度作业,但是由于作业场景越来越复杂,示教编程越来越繁琐,而且现代工厂对机器人绝对定位精度要求越来越高,所以为了满足机器人加工精度的要求,需要通过分析机器人绝对定位误差产生的原因,建立误差模型然后进行误差的补偿,从而减小机器人的绝对定位误差。机器人标定一般利用一些高精度定位或约束方法采集机器人位置数据集,然后建立合适的机器人运动学误差模型来进行误差参数的辨识。现在广泛采用的定位或约束技术包括激光,视觉,拉线传感器,球杆仪等。激光跟踪仪设备精度高,标定方式简单,但是设备昂贵,维修成本过高,无法实现随时对机器人进行标定,需要一定的场地和环境,不适合工厂的高效生产模式。而视觉四点标定是通过长度约束来实本文档来自技高网...

【技术保护点】
1.一种基于视觉测量的机器人标定及检测方法,其特征在于:所述方法包括以下步骤:/nS1获得相机的内参矩阵;/nS2根据图像处理通过角点识别结合S1中得到的相机内参矩阵,利用PnP算法来实现机器人所述相机末端和棋盘格目标点的点位对齐,最终记录下对齐后的关节角度数据;/nS3利用采集的数据建立机器人误差模型方程,然后得到一个非线性超定方程组,最后利用最小二乘迭代法进行求解,并利用更改所述棋盘格目标位置为左上角角点得到的距离约束计算出实际的连杆修正长度值。/n

【技术特征摘要】
1.一种基于视觉测量的机器人标定及检测方法,其特征在于:所述方法包括以下步骤:
S1获得相机的内参矩阵;
S2根据图像处理通过角点识别结合S1中得到的相机内参矩阵,利用PnP算法来实现机器人所述相机末端和棋盘格目标点的点位对齐,最终记录下对齐后的关节角度数据;
S3利用采集的数据建立机器人误差模型方程,然后得到一个非线性超定方程组,最后利用最小二乘迭代法进行求解,并利用更改所述棋盘格目标位置为左上角角点得到的距离约束计算出实际的连杆修正长度值。


2.根据权利要求1所述的方法,其特征在于:所述步骤S2包括以下步骤:
S21将所述相机固定在所述机器人末端,使用所述相机获得所述棋盘格的图片,然后进行第一目标对准点位检测和亚像素处理获得所述第一目标对准点位的亚像素坐标以及对应的棋盘格世界坐标系角点坐标,结合S1中得到的所述相机内参矩阵,利用PnP算法求解得到所述棋盘格坐标系和所述相机坐标系之间的位姿变换,完成所述相机的单目位姿估计,利用求得的位姿变换可以求得所述棋盘格上所有角点在在相机坐标系下的三维坐标,然后求取坐标均值就可以得到所述相机原点距离所有角点中心点的距离,也就是位置误差;
S22判断所述位置误差是否小于0.01mm,如果满足误差要求就记录机器人位置和对应的关节角度数据集,变换机...

【专利技术属性】
技术研发人员:周向东宋宝唐小琦李鹏帅刘永兴郭艺璇李含嫣王国栋
申请(专利权)人:华中科技大学
类型:发明
国别省市:湖北;42

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1