一种工业机器人的位置与姿态误差综合补偿方法技术

技术编号:27764399 阅读:26 留言:0更新日期:2021-03-23 12:07
本发明专利技术公开一种工业机器人的位置与姿态误差综合补偿方法,包括构建机器人末端实际位置与姿态的双目视觉测量,采样机器人在大规模构型下的末端实际位置与姿态误差,建立机器人理论位置姿态及对应误差的训练数据集和验证数据集,通过训练深度学习模型来实现机器人目标点位置和姿态误差的综合预测与补偿,本发明专利技术不仅可以实现机器人位置与姿态误差的综合补偿,基于大规模机器人构型下的采样数据可以更好的反应机器人位置与姿态误差的分布规律;可以有效降低工业机器人的位置与姿态误差。

【技术实现步骤摘要】
一种工业机器人的位置与姿态误差综合补偿方法
本专利技术涉及工业机器人位姿误差补偿
,具体涉及一种工业机器人的位置与姿态误差综合补偿方法。
技术介绍
工业机器人具有高柔性、高效率、关节灵活、开放性好、维护成本低等优势,是智能制造的重要组成单元,工业机器人的精度是影响产品质量的一个重要因素。但是由于工业机器人的制造、装配、连杆变形、齿轮间隙等引起的误差,导致工业机器人的绝对位姿精度要远低于重复位姿精度。工业机器人绝对位姿精度低,会导致产品加工质量急剧下降。特别是结合离线编程的飞机装配等高级制造领域,工业机器人误差补偿技术是一个必须要解决的难题。专利CN104535027B公开了一种变参数误差辨识的机器人精度补偿方法,通过构建机器人在不同空间下的位姿点误差,根据机器人目标位姿点所在的空间,依据目标位姿点周围已知误差的位姿点,通过L-M算法来拟合目标位姿误差,该方法需要依据机器人参数运动学模型,受已经误差位姿点数和空间范围的影响。专利CN102607552A公开了一种基于神经网络的工业机器人的空间网格精度补偿方法,通过粒子群优化的BP神经网络来训练机器人在不同温度下的定位误差规律,并结合已知误差样本点的空间插值来实现机器人定位误差的预测与补偿,该方法的补偿精度与效果受插值样本精度与数量的影响,且神经网络只是用于考虑温度对机器人的影响。专利CN110385720A公开了一种基于深度神经网络的机器人定位误差补偿方法,构建了神经网络模型,以机器人理论位姿与对应的位置误差为训练样本,训练的神经网络模型可以预测机器人目标点的位置误差,该方法不需要构建复杂的运动误差模型,同时考虑了机器人定位姿态对定位误差的影响,但是误差预测过程的可解释性较弱,另外无法实现机器人姿态误差的预测与补偿。现有的机器人精度补偿方法大致存在以下不足:只实现了机器人目标点的位置误差补偿,姿态误差没有得到补偿;不同机器人构型的采样点规模太小,不足以充分的反应机器人位置误差和姿态误差的分布规律。
技术实现思路
(一)解决的技术问题本专利技术的目的是提供一种工业机器人的位置与姿态误差综合补偿方法,通过构建机器人末端实际位置与姿态的双目视觉测量,对机器人在大规模构型下的末端理论位置姿态及对应的实际误差进行采样,用样本数据来训练深度学习模型,训练后的深度学习模型可以实现机器人目标点位置误差和姿态误差的综合预测与补偿。本专利技术可以同时提升工业机器人的绝对位置精度和姿态精度,有利于拓展工业机器人的场景。(二)技术方案为实现上述目的,本专利技术提供如下技术方案:一种工业机器人的位置与姿态误差综合补偿方法,具体包括以下步骤:S1:在机器人末端执行器的规划工作空间内生成不同机器人构型的采样点,并获取采样点的理论位置和姿态数据;S2:在机器人末端执行器和基座上固定视觉靶标点;S3:将工业机器人初始位置设为Home点位置,构建工业机器人基坐标系FB;S4:根据机器人基坐标系,建立跟踪坐标系FM、视觉坐标系FS;将机器人末端执行器上的视觉靶标点与所述跟踪坐标系FM固连;双目视觉通过跟踪测量末端执行器上靶标点的跟踪坐标系FM来获取机器人末端执行器实际的位置和姿态,对应测量步骤S1中的所述采样点的实际位置和姿态信息,并计算出对应的位置误差和姿态误差;S5:从步骤S1中的所述采样点中随机分为训练集和验证集;S6:构建包含输入层、输出层和多层隐含层的深度学习神经网络模型,使用所述训练集来训练网络模型;S7:使用所述验证集样本来验证训练完成后的深度学习模型的机器人位置误差和姿态误差预测准确性;S8:以机器人目标点的理论位置和姿态信息为输入,用深度学习神经网络模型预测的目标位置误差ep和姿态误差eo来校正目标位置理论坐标Pp和姿态理论坐标Po,将修正后的位置坐标(Pp+ep)与姿态坐标(Po+eo)作为机器人目标位姿的控制指令输入到机器人控制系统,机器人根据修正后的指令运动,可以更接近理想目标位姿,从而实现工业机器人位置与姿态误差的综合补偿。进一步的,所述步骤S2中,固定在机器人末端执行器和基座上的视觉靶标点为任意三点不共线且不对称分布。进一步的,所述训练集和所述验证集中的样本数据比例为8:1。进一步的,所述步骤S6中的深度学习神经网络模型的训练过程包括无监督的预训练和有监督的反向微调。进一步的,所述预训练是以机器人理论位置与姿态为特征,采用无监督贪婪逐层对网络进行训练,来确定深度学习神经网络模型的初始权值和偏置。进一步的,所述有监督的反向微调是以样本点中理论位置姿态所对应的位置误差和姿态误差作为监督特征,通过有监督训练来优化预训练所得到的初始化网络参数。进一步的,所述深度学习神经网络模型中的隐含层节点数、学习率和动量因子由粒子群优化算法获得。(三)有益效果(1)可以同时对工业机器人的位置误差和姿态误差进行预测和补偿,更综合的提升了机器人的加工精度,拓展了工业机器人的应用场景;(2)双目视觉测量方法可以方便的获取大规模的工业机器人实际位置和姿态信息,大规模的不同构型采样信息可以更全面的反应机器人误差分布规律,所训练的深度学习模型也就可以更准确的预测机器人位置误差和姿态误差。附图说明为了更清楚地说明本专利技术实施例的技术方案,下面将对实施例描述所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本专利技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。图1为本专利技术的方法流程图图2为本专利技术验证样本位置误差补偿前后对比图;图3为本专利技术验证样本姿态误差补偿前后对比图。具体实施方式下面将结合本专利技术实施例中的附图,对本专利技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本专利技术一部分实施例,而不是全部的实施例。基于本专利技术中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本专利技术保护的范围。请参阅图1-3,工业机器人的实验平台包括工业机器人及其控制柜、双目视觉测量装置,其中机器人末端安装有末端执行器,工业机器人为6自由度开链机械手,机器人的重复精度为±0.08mm。机器人通过关节的运动将末端执行器运动到目标位姿,但由于机器人的参数、制造、安装等误差导致末端执行器会偏离目标位姿,故此本专利技术提出了机器人位置和姿态误差的综合补偿方法:步骤1:在机器人末端执行器的工作空间规划800mmx1200mmx800mm的范围和目标点姿态角均在±15°范围,生成9000个不同机器人构型的采样点,获取9000个采样点的理论位置和姿态数据。步骤2:在机器人末端执行器和基座上固定视觉靶标点,靶标点的固定为任意三点不共线,且避免对称分布,靶标点群中心尽可能的靠近刀尖点位置。步骤3:将工业机器人初始位置设为Home点位置;分别转动关节A1,A2,由C-Track采集工业机器人圆弧运动时的本文档来自技高网
...

【技术保护点】
1.一种工业机器人的位置与姿态误差综合补偿方法,其特征在于,具体包括以下步骤:/nS1:在机器人末端执行器的规划工作空间内生成不同机器人构型的采样点,并获取采样点的理论位置和姿态数据;/nS2:在机器人末端执行器和基座上固定视觉靶标点;/nS3:将工业机器人初始位置设为Home点位置,构建工业机器人基坐标系F

【技术特征摘要】
1.一种工业机器人的位置与姿态误差综合补偿方法,其特征在于,具体包括以下步骤:
S1:在机器人末端执行器的规划工作空间内生成不同机器人构型的采样点,并获取采样点的理论位置和姿态数据;
S2:在机器人末端执行器和基座上固定视觉靶标点;
S3:将工业机器人初始位置设为Home点位置,构建工业机器人基坐标系FB;
S4:根据机器人基坐标系,建立跟踪坐标系FM、视觉坐标系FS;将机器人末端执行器上的视觉靶标点与所述跟踪坐标系FM固连;双目视觉通过跟踪测量末端执行器上靶标点的跟踪坐标系FM来获取机器人末端执行器实际的位置和姿态,对应测量步骤S1中的所述采样点的实际位置和姿态信息,并计算出对应的位置误差和姿态误差;
S5:从步骤S1中的所述采样点中随机分为训练集和验证集;
S6:构建包含输入层、输出层和多层隐含层的深度学习神经网络模型,使用所述训练集来训练网络模型;
S7:使用所述验证集样本来验证训练完成后的深度学习模型的机器人位置误差和姿态误差预测准确性;
S8:以机器人目标点的理论位置和姿态信息为输入,用深度学习神经网络模型预测的目标位置误差ep和姿态误差eo来校正目标位置理论坐标Pp和姿态理论坐标Po,将修正后的位置坐标(Pp+ep)与姿态坐标(Po+eo)作为机器人目标位姿的控制指令输入到机器人控制系统,机器人根据修正后的指令运动,可以更接近理想目标位姿,从...

【专利技术属性】
技术研发人员:田威王伟廖文和李波李鹏程
申请(专利权)人:南京航空航天大学
类型:发明
国别省市:江苏;32

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1