一种基于视觉识别的机器人分拣规划方法及规划设备技术

技术编号:36216436 阅读:54 留言:0更新日期:2023-01-04 12:13
本发明专利技术提供了一种基于视觉识别的机器人分拣规划方法,包括:对示教物体进行视觉识别,控制机器人对示教物体的抓取示教,记录所述机器人在示教抓取的位姿;在实际分拣场景时,根据所述机器人的视觉识别结果,结合机器人示教抓取的位姿数据,计算得到实际抓取时的抓取位姿的末端位姿。本发明专利技术还提供了基于上述分拣规划方法的分拣规划设备及分拣方法及装置。本发明专利技术采用对机器人初始示教的方式,结合三维视觉识别系统,快速精确的计算出机器人实际抓取位姿结果,避免了TCP标定的步骤,简化了计算抓取位姿的流程,从而提高了抓取位姿的精度,使得机器人的分拣工作更为方便,提高了机器人分拣系统的柔性。系统的柔性。系统的柔性。

【技术实现步骤摘要】
一种基于视觉识别的机器人分拣规划方法及规划设备


[0001]本专利技术属于机器视觉领域,具体涉及到一种基于视觉识别的机器人分拣规划方法及规划设备、机器人分拣方法及分拣设备。

技术介绍

[0002]目前随着机器人技术及三维视觉技术的飞速发展,三维点云的获取方式越来越方便,机器人技术及三维视觉技术逐渐在工业的各个领域中广泛应用,尤其是工业物流分拣领域,由于全球人力成本的日益高涨,采用机器人进行智能化分拣作业是未来趋势。
[0003]在现有技术中,传统机器人分拣系统主要采用示教或离线编程的方法进行物体分拣;传统的示教方法对机器人编程过程繁琐,针对不同的分拣任务,需要多次重复对机器人的抓取位姿进行示教,效率很低,还容易发生碰撞;而采用离线编程方法,模型误差和机器人的绝对误差会对其精度有一定影响,影响分拣工作的成功率。
[0004]所以目前急需一种机器人分拣规划方法能简化计算机器人抓取位姿的流程,使得机器人分拣工作更为方便,以适应复杂的分拣工作。

技术实现思路

[0005]为了克服现有技术缺点与不足,本专利技术的目的在于提供一种基于视觉识别的机器人分拣规划方法及规划设备、机器人分拣方法及分拣设备,使得机器人可以根据视觉系统的识别结果进行分拣规划,提高抓取精度并简化计算流程。
[0006]本专利技术的目的通过以下的技术方案实现:
[0007]本专利技术第一方面提供了一种基于视觉识别的机器人分拣规划方法,包括以下步骤:
[0008]S1、对示教物体进行视觉识别,控制机器人对所述示教物体的抓取示教,记录所述机器人在抓取示教物体时的示教位姿:读取所述机器人在示教位姿时的关节角,通过机器人正向运动学计算出所述机器人在示教位姿时的末端位姿矩阵示教时目标识别的位姿结果
[0009]S2、在实际分拣场景时,根据所述机器人的视觉识别结果,结合所述机器人示教抓取的位姿数据,计算得到实际抓取时的抓取位姿的末端位姿为:
[0010][0011]其中,为手眼标定结果;为实际抓取目标识别的位姿结果,为示教时目标识别的位姿结果的逆;为的逆。
[0012]所述在示教位姿时满足以下关系:
[0013][0014]所述为示教时工具坐标系到示教物体的变换矩阵,为机器人末端到工具末
端的变换矩阵;为抓取位姿时机器人的末端的位姿矩阵;为的逆;为手眼标定结果;为示教时目标识别的位姿结果;为相机坐标系到模型点云坐标系的变换矩阵,取单位矩阵。
[0015]在一种可行的实施方式中,所述实际抓取时的抓取位姿的末端位姿矩阵的推导过程如下:
[0016]因抓取位姿与示教位姿满足相同的抓取关系,则有:
[0017][0018][0019]可得:
[0020]抓取位姿的末端位姿为:
[0021][0022]其中,为实际抓取时工具坐标系到场景待抓取物体的变换矩阵;为实际抓取时机器人末端到工具末端的变换矩阵,取固定值。
[0023]本专利技术第二方面提供一种基于视觉识别的机器人分拣规划设备,包括处理器和存储器;所述存储器上存储有非暂时性计算机指令,当所述非暂时性计算机指令被处理器运行时,执行所述基于视觉识别的机器人分拣规划方法。
[0024]本专利技术第三方面提供一种基于视觉识别的机器人分拣装置,包括机器人及所述基于视觉识别的机器人分拣规划设备。
[0025]在一种可行的实施方式中,在完成所述基于视觉识别的机器人分拣规划方法中的步骤S1~S2后,控制机器人进行物品抓取。
[0026]在一种可行的实施方式中,所述物品抓取过程中采用包围盒进行碰撞检测。
[0027]在一种可行的实施方式中,所述包围盒为圆柱体结构。
[0028]在一种可行的实施方式中,所述碰撞检测通过将实际分拣场景的场景点云坐标系转换到所述圆柱形包围盒的坐标系中进行判定检测;
[0029]发生碰撞的条件为:
[0030][0031]所述N为场景点云的数量,所述R0所述圆柱体包围盒的半径,所述H0为所述圆柱体包围盒的高度,所述分别为场景点在机器人末端坐标系下的三维坐标值。
[0032]与现有技术相比,本专利技术具有以下优点和有益效果:
[0033](1)本专利技术采用初始示教的方式,结合视觉识别系统,快速精确的计算出机器人实际抓取位姿结果;对机器人采用示教的方式可以抵消了机器人的绝对定位误差,简化了计算抓取位姿的流程,减少了TCP标定的操作,从而提高了抓取位姿的精度,使得机器人分拣更为方便。
[0034](2)本专利技术将机器人末端的法兰及抓取机构简化为圆柱包围盒进行碰撞检测,简化了机器人模型的几何形状,将场景云点转换到机器人的末端坐标系中,建立圆柱包围盒
方程,减少了算法的运算时间,避免了机器人在实际分拣过程中发生碰撞,提高了分拣工作的可行性。
附图说明
[0035]图1为本专利技术的机器人抓取位姿计算流程图。
[0036]图2为本专利技术的机器人抓取位姿计算示意图。
[0037]图3为本专利技术的机器人碰撞检测示意图。
具体实施方式
[0038]为使得本专利技术的专利技术目的、特征、优点能够更加的明显和易懂,下面将结合本专利技术实施例中的附图,对本专利技术实施例中的技术方案进行清楚、完整地描述,显然,下面所描述的实施例仅仅是本专利技术一部分实施例,而非全部的实施例。基于本专利技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本专利技术保护的范围。
[0039]下面结合附图并通过具体实施方式来进一步说明本专利技术的技术方案。
[0040]在本专利技术的描述中,需要理解的是,术语“上”、“下”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本专利技术和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本专利技术的限制。
[0041]实施例1
[0042]如图1所示,本实施例的一种基于视觉识别的机器人分拣规划方法,包括以下步骤:
[0043]步骤S1,对示教物体进行视觉识别,控制机器人对所述示教物体的抓取示教,记录所述机器人在示教抓取的位姿:
[0044]对示教物体进行视觉识别,控制机器人完成对所述示教物体的抓取示教,记录所述机器人在抓取示教物体时的示教位姿:读取所述机器人在示教位姿时的关节角,通过机器人正向运动学计算出所述机器人在示教位姿时的末端位姿矩阵示教时目标识别的位姿结果
[0045]步骤S2,在实际分拣场景时,根据所述机器人的视觉识别结果,结合所述机器人示教抓取的位姿数据,计算得到实际抓取时的抓取位姿的末端位姿为:
[0046][0047]其中,为手眼标定结果;为实际抓取目标识别的位姿结果,为示教时目标识别的位姿结果的逆;为的逆。
[0048]其中,所述示教物品为实景场景中符合所述机器人抓取量程的任一物品,所述机器人可在实景场景的任一位置进行抓取示教。...

【技术保护点】

【技术特征摘要】
1.一种基于视觉识别的机器人分拣规划方法,其特征在于,包括以下步骤:S1、对示教物体进行视觉识别,控制机器人对所述示教物体的抓取示教,记录所述机器人在抓取示教物体时的示教位姿:读取所述机器人在示教位姿时的关节角,通过机器人正向运动学计算出所述机器人在示教位姿时的末端位姿矩阵示教时目标识别的位姿结果S2、在实际分拣场景时,根据所述机器人的视觉识别结果,结合所述机器人示教抓取的位姿数据,计算得到实际抓取时的抓取位姿的末端位姿为:其中,为手眼标定结果;为实际抓取目标识别的位姿结果,为示教时目标识别的位姿结果的逆;为的逆。2.根据权利要求1所述的基于视觉识别的机器人分拣规划方法,其特征在于,所述在示教位姿时满足以下关系:所述为示教时工具坐标系到示教物体的变换矩阵,为机器人末端到工具末端的变换矩阵;为抓取位姿时机器人的末端的位姿矩阵;为的逆;为手眼标定结果;为示教时目标识别的位姿结果;为相机坐标系到模型点云坐标系的变换矩阵,取单位矩阵。3.根据权利要求2所述的基于视觉识别的机器人分拣规划方法,其特征在于,其特征在于,所述实际抓取时的抓取位姿的末端位姿矩阵的推导过程如下:因抓取位姿与示教位姿满足相同的抓取关系,则有:因抓取位姿与示教位姿满足相同的抓取关系,则有:可得:抓取位姿的末端位姿为:其中,为实际抓取时工具坐...

【专利技术属性】
技术研发人员:王念峰林俊烨张宪民
申请(专利权)人:华南理工大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1