【技术实现步骤摘要】
一种基于FasterR
‑
CNN和GRCNN的机械臂智能抓取方法及系统
[0001]本专利技术属于机器人智能控制
,具体涉及一种基于Faster R
‑
CNN和GRCNN的机械臂智能抓取方法及系统。
技术介绍
[0002]机械臂是人工智能、自动化和控制学等多个领域交叉应用的产物,在各个领域都有广泛应用。例如,在快递分拣领域用于分拣任务,在工业领域用于零件的装配、加工和焊接,在服务领域用于咖啡的制作与售卖。然而,在这些结构化场景中,机械臂通常通过示教器或离线方式完成特定任务,前期需要进行大量调试和示教工作,并没有考虑复杂的轨迹规划。这种机械臂只能重复执行对固定位置的特定物体的搬运或抓取,无法适应其他目标物体,因此缺乏自主智能决策能力。一旦目标物体在非结构化环境中位置或外形发生变化,或者抓取场景发生迁移,整个抓取任务往往以失败告终。
[0003]早期研究者采用了物体形状分析及传统机器学习方法来处理特征,获取抓取位姿。然而,人工提取特征仅适用于描述形状规则简单的物体,对于外观复杂的物体无法生成抓取位姿。此外,人工提取特征存在主观性,所认为可抓取的点未必机械臂能够成功抓取。随着深度学习的发展,基于神经网络的反向传播和学习深层语义特征、自学习、自组织、自适应性等优势已超越传统算法。因此,神经网络常用于目标检测和位姿估计,从而获得最终的抓取位姿。然而,该方法受限于已知物体类别或模型,难以对数据库中没有的物体进行成功抓取。虽然深度学习技术已经发展多年,但在机器人抓取领域的探索仍处于 ...
【技术保护点】
【技术特征摘要】
1.一种基于Faster R
‑
CNN和GRCNN的机械臂智能抓取方法,应用于执行抓取的机械臂、以及固定在机械臂末端的深度相机,其特征在于,方法包括如下步骤:S1:基于Halcon标定法确定机械臂末端夹爪与固定在机械臂末端的深度相机间的位置关系,在生成两者间的旋转矩阵后,初始化机械臂的抓取位姿;S2:通过深度相机采集对应所述初始抓取位姿下的抓取场景中目标物体的彩色图像和深度图像,基于预先构建的Faster R
‑
CNN网络模型对所述彩色图像进行目标检测,以识别出目标物体的类别、以及在彩色图像中的位置,在对位置进行修正后将目标物体在所述深度图像中对应像素部分进行提取,以生成包含目标物体的待处理图像;S3:在对待处理图像按设定格式进行预处理后输入到GRCNN网络模型中并进行处理,输出目标物体在深度图像空间中的最优抓取位姿,经过变换处理得到机械臂坐标系下的最优抓取位姿,机械臂控制器对其坐标系下的最优抓取位姿采用逆运动学解算与运动轨迹规划生成机械臂关节动作,机械臂执行该关节动作进行抓取。2.根据权利要求1所述的一种基于Faster R
‑
CNN和GRCNN的机械臂智能抓取方法,其特征在于:预先构建的Faster R
‑
CNN网络模型包括:卷积层,用于提取图像特征并得到公共特征图;RPN网络,用于接收所述公共特征图并进行处理,以输出多个感兴趣区域ROI;ROIpooling层,用于接收所述ROI和所述公共特征图,并将两者进行综合后得到固定大小的区域特征图;全连接层,用于接收所述区域特征图并进行处理,以输出对应ROI中物体所述类别和物体在图像中的精确位置。3.根据权利要求2所述的一种基于Faster R
‑
CNN和GRCNN的机械臂智能抓取方法,其特征在于:步骤S2中,采用预先构建Faster R
‑
CNN网络模型进行目标检测的流程包括:S2.1:将所述彩色图像输入到所述卷积层提取得到公共特征层,并生成若干网格和先验框,利用所述RPN网络获取对应所述先验框的建议框,利用所述建议框在所述公共特征层进行特征提取,提取出不同特征层对应所述彩色图像上的不同位置,并传入到ROIpooling层中;S2.2:ROIpooling层将不同特征层尺寸调整成相同大小的区域特征图,并判断建议框中彩色图像特征层中目标物体的类别和位置,在全连接层中对建议框中目标物体位置进行修正后输出目标物体的精确位置。4.根据权利要求3所述的一种基于Faster R
‑
CNN和GRCNN的机械臂智能抓取方法,其特征在于:步骤S2.2中,对建议框中目标物体位置进行修正后输出目标物体的精确位置包括:采用全连接层中softmax函数计算彩色图像每个区域建议框中目标物体的具体隶属类别,并输出相应的概率向量,同时采用边界框回归预测每个区域建议框的位置偏移量,再通过回归修正获得更加精确的目标物体位置;回归修正公式为:t
x
=(x
‑
x
a
)/w
a t
y
=(y
‑
y
a
)/h
a
t
w
=log(w/w
a
)t
h
=log(h/h
a
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。