System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 一种机器人自适应阻抗控制方法技术_技高网

一种机器人自适应阻抗控制方法技术

技术编号:40950371 阅读:3 留言:0更新日期:2024-04-18 20:25
本发明专利技术公开一种机器人自适应阻抗控制方法,其包括以下步骤:初始化与机器人参数设置;测量机器人的运动轨迹信息;训练数据处理:对机器人的运动轨迹信息进行处理,形成训练数据集合;利用神经网络,根据训练数据集合,预测机器人末端的将来轨迹;执行自适应阻抗控制,将计算得到的力施加到机器人末端执行器,同时使机器人沿着操作面运动;实时更新神经网络,并执行循环控制。该方法通过神经网络模型感知操作面特征,并利用自适应阻抗控制调整机器人控制参数,使机器人能够在面对不同形状和特性的操作面时快速适应,并实时调整阻抗参数以应对操作面变化。该方法能够在复杂环境中实现高效、实时的持续接触,同时保证系统稳定性和自适应性。

【技术实现步骤摘要】

本专利技术涉及机器人控制领域,具体为一种机器人自适应阻抗控制方法


技术介绍

1、随着机器人应用领域的不断扩大,要求机器人执行复杂操作的需求也在增加,其中包括打磨、握持等操作。这些操作要求机器人能够在执行任务的同时,持续接触操作面,并同时满足位置和操作力的要求。例如在打磨操作中,机器人需要保持接触工件的待打磨面。这可能涉及到操作面的表面不规则性、变化和复杂的形状,因此需要强大的感知和控制系统。除了位置控制,机器人还需要实现对力的控制,从而调整施加在工件上的力,以确保适当的磨削压力,同时避免损害工件表面。而在握持操作中,机器人可能需要握持具有复杂形状的物体,如不规则形状的工件。这要求机器人能够适应不同形状的物体表面,而且握持过程中,机器人需要平衡位置和握持力的要求,并根据任务要求进行调整,以保持握持的稳定性。

2、因此,机器人需要在复杂操作中实现对操作面的持续接触,并同时满足位置和操作力的控制要求。传统的机器人控制方法在持续接触操作面时面临建模困难、响应速度不足等问题。现有的控制方法如基于模型的控制方法,这类方法要求精确的系统动力学模型,然而,在复杂操作的情况下,难以准确建模。传统pid控制方法对未知环境变化响应较慢,而传统阻抗控制方法通常需要提前确定阻抗参数,无法适应动态操作面变化。现有控制方法在面对操作面时,难以快速适应操作面的形状和特性的变化。基于模型的方法要求提前准确建模,而对于复杂的操作面,建模变得极为困难。传统pid控制和阻抗控制方法对操作面的快速变化响应较慢,影响控制性能。


术实现思路

1、本专利技术引入数据驱动的方法,通过学习大量实际测量数据来建立模型,从而克服了对精确模型的依赖。采用神经网络方法进行实时预测和更新,使机器人能够在操作面上实现高精度的自适应阻抗控制。本专利技术采用自适应阻抗控制方法,能够实时调整阻抗参数,使得机器人在持续接触操作面时对操作面的变化更加敏感,提高了适应性。

2、本专利技术提供一种机器人自适应阻抗控制方法,其包括以下步骤:

3、初始化与机器人参数设置;

4、测量机器人的运动轨迹信息;

5、训练数据处理:对机器人的运动轨迹信息进行处理,形成训练数据集合;

6、利用神经网络,根据训练数据集合,预测机器人末端的将来轨迹;

7、执行自适应阻抗控制,将计算得到的力施加到机器人末端执行器,同时使机器人沿着操作面运动;

8、实时更新神经网络,并执行循环控制。

9、具体地,自适应阻抗控制通过可变阻抗控制实时调整阻尼系数。

10、具体地,自适应阻抗控制的控制律为:

11、,其中,xd为机器人末端的期望位置,xc为机器人末端的当前位置,fd为期望的接触力,fc为当前的接触力,m、b、p、q、r为机器人控制参数,t为控制周期,λ为极小值。

12、具体地,训练数据处理,具体为:

13、(1)确定待处理运动轨迹的起始点和终止点,并将该起始点和终止点加入训练数据集合;

14、(2)依次计算轨迹上的其他测量点到起始点和终止点所在轨迹的距离;

15、(3)计算测量点到前述轨迹的最大距离,如果最大距离小于阈值,则去掉除起始点和终止点外的所有点;如果最大距离大于阈值,则在最大距离所在测量点处将运动轨迹分段;

16、(4)对形成的所有运动轨迹重复执行步骤(1)-(3),直到最大距离均大于阈值或当前训练数据集合内的测量点数量大于预设数量,则迭代结束。

17、具体地,阈值为操作面的粗糙度算术平均高度。

18、具体地,粗糙度算术平均高度为相对于表面的平均面,各点高度差的绝对值的平均值。

19、具体地,神经网络为反向传播神经网络。

20、具体地,神经网络的输入为训练数据集合,输出包括操作面的拟合表达式和机器人末端的将来位移。

21、具体地,神经网络通过监督学习,使用已知的位移信息与神经网络预测的位移信息之间的差异作为损失函数。

22、具体地,损失函数为均方误差。

23、有益效果:使用深度学习模型,机器人能够通过监督学习不断优化对操作面的拟合表达式。这使得机器人在面对不同形状和特性的操作面时能够快速适应,并且在操作面发生变化时能够迅速调整。引入自适应阻抗控制,使得机器人能够在运动中动态调整控制参数,适应操作面的变化。这提高了实时性,机器人可以即时响应操作面的不规则性。

24、本文将深度学习和自适应阻抗控制相结合,实现了感知和控制的融合。深度学习用于感知操作面的特征,而自适应阻抗控制用于根据感知结果调整机器人的运动和力施加,能够根据操作面的特性实时调整阻抗参数,从而提高控制系统的适应性和稳定性。由于深度学习模型和自适应阻抗控制的特性,该系统表现出较强的自适应性,适用于不同形状和特性的操作面。通过这种综合的方案,机器人能够在复杂环境中以高效、实时、精确的方式执行对操作面的持续接触任务,同时保证了系统的稳定性和自适应性。

本文档来自技高网...

【技术保护点】

1.一种机器人自适应阻抗控制方法,其包括以下步骤:

2.根据权利要求1所述的机器人自适应阻抗控制方法,其中,训练数据处理,具体为:

3.根据权利要求2所述的机器人自适应阻抗控制方法,其中,阈值为操作面的粗糙度算术平均高度。

4.根据权利要求3所述的机器人自适应阻抗控制方法,其中,粗糙度算术平均高度为相对于表面的平均面,各点高度差的绝对值的平均值。

5.根据权利要求1所述的机器人自适应阻抗控制方法,其中,神经网络为反向传播神经网络。

6.根据权利要求1所述的机器人自适应阻抗控制方法,其中,神经网络的输入为训练数据集合,输出包括操作面的拟合表达式和机器人末端的将来位移。

7.根据权利要求1所述的机器人自适应阻抗控制方法,其中,神经网络通过监督学习,使用已知的位移信息与神经网络预测的位移信息之间的差异作为损失函数。

8.根据权利要求7所述的机器人自适应阻抗控制方法,其中,损失函数为均方误差。

【技术特征摘要】

1.一种机器人自适应阻抗控制方法,其包括以下步骤:

2.根据权利要求1所述的机器人自适应阻抗控制方法,其中,训练数据处理,具体为:

3.根据权利要求2所述的机器人自适应阻抗控制方法,其中,阈值为操作面的粗糙度算术平均高度。

4.根据权利要求3所述的机器人自适应阻抗控制方法,其中,粗糙度算术平均高度为相对于表面的平均面,各点高度差的绝对值的平均值。

5.根据权利要求1所述的机器人自适应阻抗控...

【专利技术属性】
技术研发人员:张晓龙罗易刘元建甘亚光甘亚辉
申请(专利权)人:纳博特控制技术苏州有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1