【技术实现步骤摘要】
基于视觉与触觉融合的精准抓取机器人系统
[0001]本专利技术涉及机器人
,特别涉及基于视觉与触觉融合的精准抓取机器人系统
。
技术介绍
[0002]在现代工业和自动化应用中,精准抓取机器人系统的研究和开发变得愈发重要
。
这些机器人系统被广泛应用于物流
、
制造业
、
医疗
、
仓储和农业等领域,以实现高效的自动化操作
。
然而,在复杂多变的环境中,机器人要实现精准抓取任务仍然具有挑战性,因为它们需要结合多种感知信息和控制策略,以确保抓取的准确性和鲁棒性
。
在传统的机器人系统中,通常使用单一的传感器或单一的感知模式来执行抓取任务
。
例如,常见的机器视觉系统使用摄像头来感知目标物体的位置和姿态,然后执行抓取操作
。
虽然这些系统在某些应用中表现出色,但它们也存在一些局限性:
[0003]传统机器视觉系统在光照不足
、
物体表面反射性差或物体形状复杂的情况下可能失效
。
它们对环境条件的依赖性较高,因此在复杂的工作环境中表现不佳
。
传统系统通常难以实现高精度抓取,特别是在涉及微小物体
、
脆弱物体或高度精确的任务中
。
抓取位置和力度的控制不足可能导致抓取失败
。
某些抓取任务可能需要多种感知模式的融合,例如视觉
、
触觉和力学信息的联合使用
。<
【技术保护点】
【技术特征摘要】
1.
基于视觉与触觉融合的精准抓取机器人系统,其特征在于,所述系统包括:传感器信息采集部分,包括:视觉传感器和触觉传感器;所述视觉传感器配置用于采集每个时间步的视觉观测矩阵;所述触觉传感器配置用于采集每个时间步的触觉观测矩阵;机器人状态估计部分,配置用于基于机器人的初始状态向量,对机器人在每个时间步的状态进行估计,得到机器人在每个时间步的状态估计;融合部分,配置用于基于每个时间步的视觉观测矩阵与状态估计进行融合,基于每个时间步的触觉观测矩阵与状态估计进行融合,分别得到视觉预测和触觉预测;机器人状态更新部分,配置用于基于视觉预测和触觉预测,更新机器人在每个时间步的状态估计,得到机器人在每个时间步的更新状态估计;抓取指令生成部分,配置用于基于每个时间步的更新状态估计,生成抓取指令,以控制机器人完成抓取动作
。2.
如权利要求1所述的基于视觉与触觉融合的精准抓取机器人系统,其特征在于,设
t
为时间步;机器人的初始状态向量为
x0;获取初始状态转移矩阵
A0、
初始控制输入矩阵
B0和初始噪声
w0;根据初始状态转移矩阵
A0、
初始控制输入矩阵
B0初始噪声
w0分别对应生成状态转移矩阵
At、
控制输入矩阵
B
t
和过程噪声
w
t
;获取在
t
时间步的控制输入
u
t
;机器人状态估计和预测部分,基于机器人的初始状态向量,对机器人在每个时间步的状态进行估计,得到机器人在每个时间步的状态估计的过程包括:使用状态转移矩阵
A
t
、
控制输入矩阵
B
t
和控制输入
u
t
,以及过程噪声
w
t
对机器人在每个时间步的状态进行估计,得到机器人在每个时间步的状态估计为
x
t+1
:
x
t+1
=
A
t
x
t
+B
t
u
t
+w
t
;其中,每个时间步的状态估计
x
t
为一个向量,包括每个时间步的位置
P
t
、
速度
V
t
和方向
θ
t
。3.
如权利要求2所述的基于视觉与触觉融合的精准抓取机器人系统,其特征在于,设每个时间步的视觉观测矩阵为触觉观测矩阵为融合部分,使用如下公式,基于每个时间步的视觉...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。