The invention discloses a deep learning based on flexible robot vision recognition and positioning system, which comprises the following steps: acquiring parts of the image binarization processing and extracting the outline of the outline of the edge; find the edge in the horizontal rectangle to determine recognition area, normalized to a standard image angle gradually; the standard image rotation, rotation angle and find out the standard of image rotation to its outer edge in the horizontal rectangle area of the hour with the rotation angle alpha; depth extraction for learning network contour edge alpha, identification of parts and the position; according to the rotation angle alpha, and pose and the actual pose calculation to identify the parts before rotation, and the position data is transmitted to a flexible robot, flexible robot to identify parts to pick up. The invention utilizes the depth learning network to automatically extract the contour shape features contained in the part image data by layer by layer, and can greatly improve the accuracy and adaptability of the parts identification and positioning under complicated conditions.
【技术实现步骤摘要】
一种基于深度学习的柔性机器人视觉识别与定位系统
本专利技术涉及机器人行业的视觉识别与定位
,特别地涉及一种基于深度学习的柔性机器人视觉识别与定位系统。
技术介绍
柔性工业机器人在对零件的自动装配、搬运、分拣中,如何准确识别与定位传输装置上随意放置并混杂的机械零件是一项非常重要且十分有难度的任务,零件的特征是否被正确选取、是否被有效描述,对柔性机器人最终识别与定位效果的影响是非常显著的、甚至是决定性的。在零件混杂、随意放置、视角变化、图像缩放、扭曲、光照变化、背景干扰等复杂条件下,现有柔性机器人识别与定位准确性不高,其主要原因就是所用零件特征有效性和适应性差。对于零件特征,现有方法多是采用“人工缺陷特征选取+人工特征描述计算”的方式,如颜色、纹理、形状等各类传统人工特征及其描述算子。目前采用较多的是针对不同的零件提出的各种人工形状描述算子,如傅立叶算子、曲率尺度空间算子、矩、以及链码等,这些方法在特定的条件下能够获得一定的效果。但是面对零件混杂、随意放置、视角变化、光照变化、背景干扰、甚至图像缩放或扭曲,这些方法就不能很好地进行零件目标识别了。并且,上述人工特征的有效性和适应性存在很大问题,需要启发式方法、非常专业的知识、很大程度上也靠个人经验,并有可能受具体条件的限制,适应性往往较差。零件人工特征有效性和适应性差是现有柔性机器人识别与定位准确性不高的主要原因之一。深度学习机制具有优异的特征自学习能力,能够模拟人脑准确高效地从大量感知数据中自动提取本质信息,从而大大提高分类识别或分类的准确性。目前针对深度学习的研究主要集中在环境条件较好的人脸模型、字符 ...
【技术保护点】
一种基于深度学习的柔性机器人视觉识别与定位系统,其特征在于,包括如下步骤:1)零件外轮廓边缘提取:采用CCD相机获取待识别零件所在区域的图像,对原图像进行二值化处理,提取图像中各零件的外轮廓边缘;2)归一化处理:确定图像中各零件的外轮廓边缘在水平方向上的外接矩形,并将每个外接矩形向外扩大至少2个像素得到每个零件的待识别区域,将每个零件的待识别区域归一化处理为标准图像;3)在90度范围内,等角度地逐渐旋转各零件的标准图像,并计算每次旋转后该零件在当前位置处的外轮廓边缘在水平方向上的外接矩形的面积,确定各零件的标准图像旋转到其外轮廓边缘在水平方向上的外接矩形的面积最小时的旋转角度α;4)采用已经学习有待识别零件的外轮廓边缘在水平方向上的外接矩形的面积最小时的四种位姿的深度学习网络提取所述步骤3)中各零件旋转角度为α时的外轮廓边缘形状,识别混杂在各零件中的待识别零件以及其旋转后所处的位姿;5)根据识别出来的待识别零件在所述步骤3)中的旋转角度α,以及识别时所处的位姿,计算旋转前待识别零件所处的实际位姿,并将该位姿数据传给柔性机器人,以便柔性机器人拾取待识别零件。
【技术特征摘要】
1.一种基于深度学习的柔性机器人视觉识别与定位系统,其特征在于,包括如下步骤:1)零件外轮廓边缘提取:采用CCD相机获取待识别零件所在区域的图像,对原图像进行二值化处理,提取图像中各零件的外轮廓边缘;2)归一化处理:确定图像中各零件的外轮廓边缘在水平方向上的外接矩形,并将每个外接矩形向外扩大至少2个像素得到每个零件的待识别区域,将每个零件的待识别区域归一化处理为标准图像;3)在90度范围内,等角度地逐渐旋转各零件的标准图像,并计算每次旋转后该零件在当前位置处的外轮廓边缘在水平方向上的外接矩形的面积,确定各零件的标准图像旋转到其外轮廓边缘在水平方向上的外接矩形的面积最小时的旋转角度α;4)采用已经学习有待识别零件的外轮廓边缘在水平方向上的外接矩形的面积最小时的四种位姿的深度学习网络提取所述步骤3)中各零件旋转角度为α时的外轮廓边缘形状,识别混杂在各零件中的待识别零件以及其旋转后所处的位姿;5)根据识别出来的待识别零件在所述步骤3)中的旋转角度α,以及识别时所处的位姿,计算旋转前待识别零件所处的实际位姿,并将该位姿数据传给柔性机器人,以便柔性机器人拾取待识别零件。2.如权利要求1所述的基于深度学习的柔性机器人视觉识别与定位系统,其特征在于,所述步骤1)中,对原图像采用单一阈值法进行二值化处理,并采用Roberts算子快速提取图像中各零件的外轮廓边缘。3.如权利要求1所述的基于深度学习的柔性机器人视觉识别与定位系统,其特征在于,所述步骤2)中,先计算各零件的外轮廓边缘在CCD相机视图坐标上的最大横坐标xmax、最小横坐标xmin、最大纵坐标ymax以及最小纵坐标ymin,得到以(xmin,ymax)、(xmax,ymax)、(xmax,ymin)、(xmin,ymin)为顶点的水平方向上零件轮廓边缘的外接矩形;并将每个外接矩形沿x方向和y方向分别向外扩大至少2个像素得到每个零件的待识别区域,将每个零件的待识别区域归一化处理为标准图像。4.如权利要求1所述的基于深度学习的柔性机器人视觉识别与定位系统,其特征在于,所述步骤3)中,具体包括如下步骤:3.1)计算各零件的外轮廓边缘在当前位置的水平外接矩形的面积,由图像的零阶几何矩和一阶几何矩计算出图像区域的几何中心即形心;3.2)以零件外轮廓边缘图像的形心为旋转中心,每次旋转角度为k度,直到旋转到90度;3.3)每次旋转后,以坐标最大最小法确定零件轮廓边缘在旋转后的水平外接矩形,并计算其面积;比较各旋转位置的水平外接矩形面积,确定面积最小时的位置;3.4)以零件外轮廓边缘图像在上述面积最小时的位置为起点,绕形心沿顺时针方向和逆时针方向分别旋转(k-1)/i次,每次旋转角度为i度,其中i为系统定位精度;并计算每次旋转后该零件在当前位置处的外轮廓边缘在水平方向上的外接矩形的面积,确定该外接矩形的面积最小时该零件的位置;3.5)确定各零件的标准图像旋转到其外轮廓边缘在水平方向上的外接矩形的面积最小时位置的旋转角度α。5.如权利要求1所述的基于深度学习的柔性机器人视觉识别与定位系统,其特征在于,所述步骤4)中,具体包括如下步骤:4.1)构建基于深度学习网络的零件形状特征自动提取与识别系统;该深度学习网络包括输入层X0、第1卷积层C1、第1降采样层S1、第2卷积层C2、第2降采样层S2、全连接层N6、RBF识别层R7和输出层Y8;所述输入层X0大小为32×32个神经元,以待识别区域归一化处理后的32×32像素标准图像作为输入,输入层神经元与标准图像的像素一一对应;第1卷积层C1由4幅含有28×28个神经元的特征图组成,是用4种不同的5×5大小卷积核卷积输入层X0而得到;第1降采样层S1由4幅含有14×14个神经元的特征图组成,每个特征图对应第1卷积层C1的一个特征图;S1降采样层的每个神...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。