System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 一种基于深度学习的机器人夹手自适应控制方法及系统技术方案_技高网

一种基于深度学习的机器人夹手自适应控制方法及系统技术方案

技术编号:42056529 阅读:33 留言:0更新日期:2024-07-16 23:34
本发明专利技术涉及机器人夹手控制技术领域,尤其是涉及一种基于深度学习的机器人夹手自适应控制方法及系统,所述方法,包括获取目标物体的图像数据集,并对图像数据集的边界框和类别标签进行标注;基于获取的图像数据集构建Yolo模型,并对构建完成的Yolo模型进行训练;输入图像数据集至Yolo模型进行目标检测,提取图像数据集中目标物体的位置信息和类别标签;根据目标检测结果进行图像数据集特征提取,基于图像数据集特征提取进行图像特征匹配,对夹手的位置、姿态和夹持力度进行调节。通过本发明专利技术的技术方案能够根据反馈信息进行自动调整,减少了手动调试和优化的工作量,并提高夹取的成功率和准确性。

【技术实现步骤摘要】

本专利技术涉及机器人夹手控制,尤其是涉及一种基于深度学习的机器人夹手自适应控制方法及系统


技术介绍

1、现有技术中,机器人夹手融合了机械、电子、控制等多领域技术,实现夹手的精确动作和控制,能够精确地抓取、夹持各种物品,完成搬运、装配等任务,在工业制造、物流仓储和医疗领域都有着广泛的应用,行业内现有方案通过plc或者工控机链接相机,通过相机系统给出被抓取产品的位置、形状数量等参数,然后将相关信息通过工控机或者plc控制夹具的伺服电机完成夹具的位置变更,同时通过工控机或者plc将夹具完成调整信号传递给机器人或者行架等执行机构进行移动动作。

2、但目前的机器人夹手由于系统通过相机,控制系统,夹具的三方转化,增加了系统等待时间,同时也增加了成本。另外由于程序是固定的只能做到有限预制产品的夹取,每次增加新产品都需要添加新程序,增加了调试时间和人工成本,现阶段需要一种基于深度学习的机器人夹手自适应控制方法及系统。


技术实现思路

1、为了解决
技术介绍
中存在的不足,本专利技术提供一种基于深度学习的机器人夹手自适应控制方法及系统。

2、第一方面,本专利技术提供的一种基于深度学习的机器人夹手自适应控制方法,采用如下的技术方案:

3、一种基于深度学习的机器人夹手自适应控制方法,包括:

4、获取目标物体的图像数据集,并对图像数据集的边界框和类别标签进行标注;

5、基于获取的图像数据集构建yolo模型,并对构建完成的yolo模型进行训练;

6、输入图像数据集至yolo模型进行目标检测,提取图像数据集中目标物体的位置信息和类别标签;

7、根据目标检测结果进行图像数据集特征提取,包括利用卷积神经网络提取具有不同的分辨率和语义信息的特征图;

8、基于图像数据集特征提取进行图像特征匹配,包括将被抓取目标物体的图像特征与预定义的图像特征进行匹配;

9、根据目标检测的结果和图像特征匹配,对夹手的位置、姿态和夹持力度进行调节。

10、进一步地,所述基于获取的图像数据集构建yolo模型,包括构建池化层、全连接层和由多个卷积层与恒等映射组成的基本残差块,其中,获取的图像数据集经基本残差块进行特征图提取,将提取的特征图传递至池化层,利用池化层对特征图的每个通道进行平均池化,通过降采样操作减小特征图的空间尺寸,并将特征图转化为固定长度的特征向量,最后全连接层利用softmax函数进行特征向量分类,并将分类后的特征向量映射到输出端。

11、进一步地,所述对构建完成的yolo模型进行训练,包括对图像数据集中的图像数据进行迭代训练,通过每次迭代将图像数据输入至yolo模型中进行前向传播计算,并通过损失函数计算图像数据中目标检测损失、边界框损失和类别损失的值,利用反向传播算法计算yolo模型梯度,并根据yolo梯度更新yolo模型的权重。

12、进一步地,所述提取图像数据集中目标物体的位置信息和类别标签,包括基于yolo模型中前向传播计算得到图像数据的边界框和类别概率,根据预测的边界框和yolo模型的输入尺寸解码边界框的位置信息,利用非最大抑制算法选择具有最高类别概率的边界框,根据解码后的边界框和非最大抑制算法选择的结果,提取目标物体的位置信息和类别标签。

13、进一步地,所述利用卷积神经网络提取具有不同的分辨率和语义信息的特征图,包括利用基本残差块中不同层次的卷积层对输入图像数据进行卷积操作,将卷积层内的卷积核与输入图像的不同位置数据进行乘积并求和生成特征图,通过上采样操作将特征图进行融合,得到具有不同分辨率和语义信息的特征图。

14、进一步地,所述将被抓取目标物体的图像特征与预定义的图像特征进行匹配,包括利用欧氏距离计算目标物体的图像特征与预定义的图像特征中之间的相似度,根据相似度计算结果筛选相似度高于阈值的图像作为匹配结果。

15、进一步地,所述对夹手的位置、姿态和夹持力度进行调节,包括将目标检测结果与预定义的图像特征进行结合,估计被抓取目标物体的姿态,结合夹爪的特性和约束条件,规划夹爪的位置、角度和夹取力度的参数。

16、第二方面,一种基于深度学习的机器人夹手自适应控制系统,包括:

17、数据模块,被配置为:获取目标物体的图像数据集,并对图像数据集的边界框和类别标签进行标注;

18、模型模块,被配置为:基于获取的图像数据集构建yolo模型,并对构建完成的yolo模型进行训练;

19、目标就模块,被配置为:输入图像数据集至yolo模型进行目标检测,提取图像数据集中目标物体的位置信息和类别标签;

20、特征提取模块,被配置为:根据目标检测结果进行图像数据集特征提取,包括利用卷积神经网络提取具有不同的分辨率和语义信息的特征图;

21、特征训练模块,被配置为:基于图像数据集特征提取进行图像特征匹配,包括将被抓取目标物体的图像特征与预定义的图像特征进行匹配;

22、调节模块,被配置为:根据目标检测的结果和图像特征匹配,对夹手的位置、姿态和夹持力度进行调节。

23、第三方面,本专利技术提供一种计算机可读存储介质,其中存储有多条指令,所述指令适于由终端设备的处理器加载并执行所述的一种基于深度学习的机器人夹手自适应控制方法。

24、第四方面,本专利技术提供一种终端设备,包括处理器和计算机可读存储介质,处理器用于实现各指令;计算机可读存储介质用于存储多条指令,所述指令适于由处理器加载并执行所述的一种基于深度学习的机器人夹手自适应控制方法。

25、综上所述,本专利技术具有如下的有益技术效果:

26、1、本专利技术通过机器视觉系统可以实时获取目标物体的位置和姿态信息,从而可以精确地控制夹手的位置和姿态,使其能够准确地夹取目标物体,减少人工编程和调整的需求。通过机器学习算法和自适应控制策略,夹手可以根据反馈信息进行自动调整,减少了手动调试和优化的工作量,并提高夹取的成功率和准确性。

27、2、本专利技术通过将预定义图像输出至yolo模型中,利用yolo模型进行图像特征匹配,根据目标物体的形状和尺寸来调整夹手的参数,使其适应不同形状和尺寸的目标物体,实现伺服夹手灵活地适应不同的工件,并且不需要预先编程固定的夹手参数,避免每次增加新产品都需要添加新程序.

本文档来自技高网
...

【技术保护点】

1.一种基于深度学习的机器人夹手自适应控制方法,其特征在于,包括:

2.根据权利要求1所述的一种基于深度学习的机器人夹手自适应控制方法,其特征在于,所述基于获取的图像数据集构建Yolo模型,包括构建池化层、全连接层和由多个卷积层与恒等映射组成的基本残差块,其中,获取的图像数据集经基本残差块进行特征图提取,将提取的特征图传递至池化层,利用池化层对特征图的每个通道进行平均池化,通过降采样操作减小特征图的空间尺寸,并将特征图转化为固定长度的特征向量,最后全连接层利用softmax函数进行特征向量分类,并将分类后的特征向量映射到输出端。

3.根据权利要求1所述的一种基于深度学习的机器人夹手自适应控制方法,其特征在于,所述对构建完成的Yolo模型进行训练,包括对图像数据集中的图像数据进行迭代训练,通过每次迭代将图像数据输入至Yolo模型中进行前向传播计算,并通过损失函数计算图像数据中目标检测损失、边界框损失和类别损失的值,利用反向传播算法计算Yolo模型梯度,并根据Yolo梯度更新Yolo模型的权重。

4.根据权利要求1所述的一种基于深度学习的机器人夹手自适应控制方法,其特征在于,所述提取图像数据集中目标物体的位置信息和类别标签,包括基于Yolo模型中前向传播计算得到图像数据的边界框和类别概率,根据预测的边界框和Yolo模型的输入尺寸解码边界框的位置信息,利用非最大抑制算法选择具有最高类别概率的边界框,根据解码后的边界框和非最大抑制算法选择的结果,提取目标物体的位置信息和类别标签。

5.根据权利要求1所述的一种基于深度学习的机器人夹手自适应控制方法,其特征在于,所述利用卷积神经网络提取具有不同的分辨率和语义信息的特征图,包括利用基本残差块中不同层次的卷积层对输入图像数据进行卷积操作,将卷积层内的卷积核与输入图像的不同位置数据进行乘积并求和生成特征图,通过上采样操作将特征图进行融合,得到具有不同分辨率和语义信息的特征图。

6.根据权利要求1所述的一种基于深度学习的机器人夹手自适应控制方法,其特征在于,所述将被抓取目标物体的图像特征与预定义的图像特征进行匹配,包括利用欧氏距离计算目标物体的图像特征与预定义的图像特征中之间的相似度,根据相似度计算结果筛选相似度高于阈值的图像作为匹配结果。

7.根据权利要求1所述的一种基于深度学习的机器人夹手自适应控制方法,其特征在于,所述对夹手的位置、姿态和夹持力度进行调节,包括将目标检测结果与预定义的图像特征进行结合,估计被抓取目标物体的姿态,结合夹爪的特性和约束条件,规划夹爪的位置、角度和夹取力度的参数。

8.一种基于深度学习的机器人夹手自适应控制系统,其特征在于,包括:

9.一种计算机可读存储介质,其中存储有多条指令,其特征在于,所述指令适于由终端设备的处理器加载并执行如权利要求1-7任意一项所述的一种基于深度学习的机器人夹手自适应控制方法。

10.一种终端设备,包括处理器和计算机可读存储介质,处理器用于实现各指令;计算机可读存储介质用于存储多条指令,其特征在于,所述指令适于由处理器加载并执行如权利要求1-7任意一项所述的一种基于深度学习的机器人夹手自适应控制方法。

...

【技术特征摘要】

1.一种基于深度学习的机器人夹手自适应控制方法,其特征在于,包括:

2.根据权利要求1所述的一种基于深度学习的机器人夹手自适应控制方法,其特征在于,所述基于获取的图像数据集构建yolo模型,包括构建池化层、全连接层和由多个卷积层与恒等映射组成的基本残差块,其中,获取的图像数据集经基本残差块进行特征图提取,将提取的特征图传递至池化层,利用池化层对特征图的每个通道进行平均池化,通过降采样操作减小特征图的空间尺寸,并将特征图转化为固定长度的特征向量,最后全连接层利用softmax函数进行特征向量分类,并将分类后的特征向量映射到输出端。

3.根据权利要求1所述的一种基于深度学习的机器人夹手自适应控制方法,其特征在于,所述对构建完成的yolo模型进行训练,包括对图像数据集中的图像数据进行迭代训练,通过每次迭代将图像数据输入至yolo模型中进行前向传播计算,并通过损失函数计算图像数据中目标检测损失、边界框损失和类别损失的值,利用反向传播算法计算yolo模型梯度,并根据yolo梯度更新yolo模型的权重。

4.根据权利要求1所述的一种基于深度学习的机器人夹手自适应控制方法,其特征在于,所述提取图像数据集中目标物体的位置信息和类别标签,包括基于yolo模型中前向传播计算得到图像数据的边界框和类别概率,根据预测的边界框和yolo模型的输入尺寸解码边界框的位置信息,利用非最大抑制算法选择具有最高类别概率的边界框,根据解码后的边界框和非最大抑制算法选择的结果,提取目标物体的位置信息和类别标签。

5.根据权利要求1所述的一种基...

【专利技术属性】
技术研发人员:陈斌
申请(专利权)人:山东鸿泽自动化技术有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1