The present invention relates to a fast method for detecting the position and attitude of irregular objects in robot grasping based on cascaded convolution neural network. Firstly, a cascaded two-stage convolution neural network model of position and attitude from coarse to fine is constructed. In the first stage, a region-based full convolution network (R_FCN) is used to realize the grasping positioning and the grasping angle. In the second stage, a new Angle_Net model is constructed to calculate the grabbing angle accurately. Secondly, the scene images containing the object to be grabbed are collected as the original scene image samples to be trained, and the two-stage convolution neural network model is trained by means of transfer learning mechanism, and then the captured images are collected on-line. Each frame of monocular color image is input into a cascaded two-stage convolution neural network model. Finally, the end effector of the robot is driven to grasp the object by the grasping position and attitude. This method has high precision of grasping detection, effectively speeds up the detection speed of irregular object grasping position and posture, and improves the real-time performance of grasping posture detection algorithm.
【技术实现步骤摘要】
一种基于级联卷积神经网络的机器人非规则物体抓取位姿快速检测方法
本专利技术涉及一种机器人自主抓取姿态检测的方法,具体地说是一种基于级联卷积神经网络的机器人非规则物体抓取位姿快速检测方法,属于机器人视觉技检测与抓取控制
技术介绍
在机器人分拣、搬运等抓取作业任务中,包括顶抓(Top-grasp)和侧抓(Side-grasp)两种方式的平面抓取(PlanarGrasp)是机器人最为常用的抓取策略。对于任意姿态的未知不规则物体,在光照不均、背景复杂的场景下,如何利用低成本的单目相机实现快速可靠的机器人自主抓取姿态检测具有很大的挑战。机器人自主抓取姿态规划方法根据感知信息的不同可分为两类:一类是基于物体模型的抓取姿态估计,一类是不依赖物体模型的抓取姿态检测。基于模型的方法需要给定精确、完整的物体三维模型,然而低成本相机成像噪声大,很难扫描建立精确模型。另外,基于三维模型的方法计算复杂,难以适应机器人实时抓取判断的需求。不依赖物体模型的方法借助机器学习技术,其实质是将抓取位姿检测问题转化成目标识别问题。机器学习方法的出现令抓取检测不局限于已知物体。早期的学习方法(见“JiangY,MosesonS,SaxenaA,EfficientgraspingfromRGBDimages:Learningusinganewrectanglerepresentation,IEEEICRA2011”)需要人为针对特定物体设定特定的视觉特征,不具备灵活性。近年来,深度学习发展迅速,其优越性正在于可自主提取与抓取位姿有关的特征。机器人抓取检测问题包括两个部分:抓取位置确定和抓 ...
【技术保护点】
1.一种基于级联卷积神经网络的机器人非规则物体抓取位姿快速检测方法,其特征在于:包括以下步骤:(1)构建位置‑姿态由粗到细的级联式两阶段卷积神经网络模型,第一阶段采用基于区域的全卷积网络实现抓取定位以及抓取角度的粗估计,第二阶段通过构造一种新的Angle‑Net模型实现抓取角度精确计算;(2)控制机器人通过全局俯视的单目彩色相机采集当前含待抓物体的场景图像,作为待训练的原始现场图像样本,借助迁移学习机制对两阶段卷积神经网络模型进行训练,得到具有一定泛化能力的抓取点位置和姿态估计器;(3)在线运行中,将全局俯视相机采集的每一帧单目彩色图像输入到前述步骤建立的级联式两阶段卷积神经网络模型,其中第一阶段输出为抓取位置候选边界框及抓取角度粗估计结果,第二阶段得到以
【技术特征摘要】
1.一种基于级联卷积神经网络的机器人非规则物体抓取位姿快速检测方法,其特征在于:包括以下步骤:(1)构建位置-姿态由粗到细的级联式两阶段卷积神经网络模型,第一阶段采用基于区域的全卷积网络实现抓取定位以及抓取角度的粗估计,第二阶段通过构造一种新的Angle-Net模型实现抓取角度精确计算;(2)控制机器人通过全局俯视的单目彩色相机采集当前含待抓物体的场景图像,作为待训练的原始现场图像样本,借助迁移学习机制对两阶段卷积神经网络模型进行训练,得到具有一定泛化能力的抓取点位置和姿态估计器;(3)在线运行中,将全局俯视相机采集的每一帧单目彩色图像输入到前述步骤建立的级联式两阶段卷积神经网络模型,其中第一阶段输出为抓取位置候选边界框及抓取角度粗估计结果,第二阶段得到以为分辨率的最终抓取姿态角;(4)以所得抓取位置和姿态驱动机器人末端执行器进行物体抓取控制。2.如权利要求1所述的一种基于级联卷积神经网络的机器人非规则物体抓取位姿快速检测方法,其特征在于,所述抓取定位是指级联式两阶段卷积神经网络模型提取图像中物体待抓取位置的候选边界框及其相应的可靠性分数,抓取角度的粗估计是指级联式两阶段卷积神经网络模型同时也输出了抓取角度的粗分类结果。3.如权利要求2所述的一种基于级联卷积神经网络的机器人非规则物体抓取位姿快速检测方法,其特征在于,待抓取位置的候选边界框选取300个,通过筛选和排序确定候选边界框中可靠性最高的边界框,该边界框的中心点就是应驱动机器人末端手爪到达的抓取位置,抓取角度的粗分类包括四种情况:、、、。4.如权利要求3所述的一种基于级联卷积神经网络的机器人非规则物体抓取位姿快速检测方法,其特征在于,所述Angle-Net模型的输入为上一级输出的抓取位置,输出为图像平面下分辨率为的抓取角度,所述Angle-Net模型包括4个卷积层和2个全连接层,其中,卷积层的卷积核个数分别为16、32、64、128,全连接层的神经元个数均为4096。5.如权利要求4所述的一种基于级联卷积神经网络的机器人非规则物体抓取位姿快速检测方法,其特征在于,所述Angle-Net模型的损失函数采用L1-范数函数,并在损失函数的基础上加上正则化项。6.如...
【专利技术属性】
技术研发人员:钱堃,夏晶,刘环,张晓博,马家乐,康栓紧,
申请(专利权)人:东南大学,
类型:发明
国别省市:江苏,32
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。