【技术实现步骤摘要】
一种基于YOLO
‑
GGCNN的机械臂检测抓取方法
[0001]本专利技术涉及一种基于YOLO
‑
GGCNN的机械臂检测抓取方法,属于智能机器人领域。
技术介绍
[0002]近年来,机器人越来越广泛的被应用于各种领域与场景,在机器人的配合下,可以解决许多人力难以完成的工作和任务,人类的工作可以更加简单高效。比如,搭载机械臂、具有抓取功能的抓取机器人可以代替人类进行工件的抓取等工作,并且机器人不知疲倦,可以举起重物,相比人手具有许多更优秀的能力。因此,研究机械臂的抓取技术具有重要的意义。
[0003]过去最传统的机械臂抓取一般使用示教器进行离线编程的方法,让机器人沿着运行过的路径,进行点到点的运动。因此复杂的运动轨迹机器人难以实现,并且机器人更无法适应柔性的工作环境,对于不同的抓取物体无法自主调整姿态。这种传统的方法对抓取物体摆放的位置也有一定的要求,机器人无法运行到没有示教的地方,能够完成的任务较为单一。并且这种方法对技术操作人员要求较高,需要了解当前机器人的编程体系。一般情况下,如果需要抓取的物品发生了变换或位姿变动,就需要重新进行编程。因此,为了提高机器臂抓取的灵活性和精准性,开始将视觉定位系统和压力反馈系统作为辅助工具,与机器人控制系统相结合,在各个场景都取得了较好的使用效果,成为了机器人行业发展的新趋势。在视觉传感器的帮助下,机器人可以对抓取物体进行定位,然后机械臂根据抓取方案到达目标物体的位置实现相应的抓取任务。
[0004]带有视觉感知的机器人抓取系统通 ...
【技术保护点】
【技术特征摘要】
1.一种基于YOLO
‑
GGCNN的机械臂检测抓取方法,所述方法应用于机械爪上方搭载有深度相机的机械臂,其特征在于,所述方法包括:步骤1,在机械臂开始抓取前,利用所述深度相机获取未放置待抓取目标时抓取平台正对机械臂方向上的图像信息,包括RGB彩色图像和深度图像,其中所述深度图像记为空白深度图像;步骤2,在所述抓取平台放置待抓取目标后,利用所述深度相机获取放置待抓取目标后抓取平台正对机械臂方向上的图像信息,并利用训练好的YOLOv4检测模型提取图像中的感兴趣区域,并将每个感兴趣区域的边界框作为ROI候选框并进行标注索引;所述训练好的YOLOv4检测模型为提前利用所有待抓取目标的样本图像进行训练后模型;步骤3,获得每个ROI候选框的索引,将所有ROI候选框位置对应到步骤1获得的空白深度图像中的位置,用框选出来的ROI候选框内区域替换所述空白深度图像的对应区域,得到只含有待抓取目标的深度图像;步骤4,将步骤3得到的只含有待抓取目标的深度图像进行裁剪处理,输入至GGCNN深度学习网络中,获得对应的抓取方案,并进行机械手到机械臂的坐标转换,按照转换后的坐标完成抓取任务。2.根据权利要求1所述的方法,其特征在于,所述步骤4中将只含有待抓取目标的深度图像进行裁剪处理,输入至GGCNN深度学习网络中,获得对应的抓取方案,包括:将仅包含目标物体的深度图像剪切成预定大小,使得其满足GGCNN深度学习网络的图像输入大小要求,同时,修复其中出现的无效值;所述无效值指由于深度相机没有测量出该像素深度而产生的空值;将剪切修复后的深度图像输入至GGCNN深度学习网络后,GGCNN网络为其中的每个的像素位置生成一个抓取方案和对应的置信度评估值,选取置信度评估值最高的抓取方案作为最终抓取方案。3.根据权利要求2所述的方法,其特征在于,所述GGCNN网络为其中的每个的像素位置生成一个抓取方案和对应的置信度评估值,选取置信度评估值最高的抓取方案作为最终抓取方案,包括:假设使用抓取框g=(p,φ,w,q)定义抓取参数,其中,p=(x,y,z)是机械爪的中心位置,φ表示旋转的抓取角度,w是机械爪张开的宽度,q表示抓取框的置信度;在高为H宽为W的2.5D深度图像中,抓取参数使用来描述,其中,s=(u,v)是抓取中心在深度图像中的像素坐标,是在深度相机参考系中的旋转角度,是图像坐标系中机械爪张开的宽度;通过下式将图像坐标系中的...
【专利技术属性】
技术研发人员:徐本连,李震,赵康,鲁明丽,从金亮,吴迪,周理想,
申请(专利权)人:苏州科技大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。