一种双目视觉引导机器人快速抓取方法、装置及存储介质制造方法及图纸

技术编号:18644365 阅读:106 留言:0更新日期:2018-08-11 08:50
本发明专利技术实施例公开了一种双目视觉引导机器人快速抓取方法、装置及存储介质,包括对左右相机进行校正后,对左视图采用基于边缘轮廓的匹配算法获得目标点坐标位置;针对所述目标点坐标位置,通过自适应权重匹配算法求出其在右视图上匹配结果,并获得视差值;将所述视差值结果转换为深度信息;根据所述深度信息计算输出目标抓取点的空间坐标,引导机器人完成快速定位抓取动作。本发明专利技术实施例还公开了一种用于双目视觉引导机器人快速抓取的装置及存储介质。采用本发明专利技术,可减小光线的干扰,并可相对传统的双目视觉立体定位算法速度快3~6倍,且在水平方向精度高达0.1mm,竖直方向精度高达1mm内,特别适用于Scara机器人抓取精度要求。

【技术实现步骤摘要】
一种双目视觉引导机器人快速抓取方法、装置及存储介质
本专利技术涉及一种机器视觉处理方法,尤其涉及一种双目视觉引导机器人快速抓取方法、装置及存储介质。
技术介绍
双目立体视觉技术通过模拟人类双眼的处理方式,具有获取待测物体深度信息的能力,进而能够获得被测物体的空间位置信息,同时又具有无损测量及实时测量的优点,在各行各业得到了广泛的应用。双目立体视觉技术在保证非接触性、实时性等优点的同时能够精确地获得目标点的空间位置信息。其可应用于三维高精度伺服控制、高精度空间定位以及高精度三维测量等方面。零件的加工定位精度直接影响着零件的加工精度,而对于精密零件定位精度有可能直接影响加工零件是否可用,同时针对精密超精密零件的加工定位往往要求非接触的特点,基于双目立体视觉的精密零件的精确定位方法应运而生。传统双目视觉引导机器人抓取,匹配定位速度慢,往往需要1~2s以上才能完成定位,整个抓取动作周期通常超过4s以上,难以突破抓取效率。
技术实现思路
本专利技术实施例所要解决的技术问题在于,提供一种双目视觉引导机器人快速抓取方法、装置及存储介质。可快速识别抓取目标的深度信息,并快速进行工件抓取。为了解决上述技术问题,本专利技术实施例提供了一种双目视觉引导机器人快速抓取方法,包括以下步骤:步骤1:对左右相机进行校正后,对左视图采用基于边缘轮廓的匹配算法获得目标点坐标位置;步骤2:针对所述目标点坐标位置,通过自适应权重匹配算法求出其在右视图上匹配结果,并获得视差值;步骤3:将所述视差值结果转换为深度信息;步骤4:根据所述深度信息计算输出目标抓取点的空间坐标,引导机器人完成快速定位抓取动作。进一步地,所述步骤1还包括以下步骤:采用Canny算法查找目标物体轮廓边缘;保存轮廓数据,将边缘轮廓上各坐标点的x,y方向和梯度信息保存为模板模型,并将所述各坐标点重新排列为以重心坐标为起点的点集。更进一步地,所述步骤1还包括以下步骤:使用相似性度量将所述模板模型与所有位置处的搜索图像进行比较。更进一步地,所述步骤2还包括以下步骤:采用自适应权重的双目立体匹配算法搜索右视图中的对应所述目标点的匹配点,以所述匹配点与所述目标点进行计算视差值。更进一步地,所述步骤3具体包括:通过以下公式进行计算深度信息:其中,Z为深度信息,f为相机焦距,T为左右相机的基线距离,d是视差值。相应地,本专利技术实施例还提供了一种用于双目视觉引导机器人快速抓取的装置,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述方法的步骤。相应地,本专利技术实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如上述方法的步骤。实施本专利技术实施例,具有如下有益效果:本专利技术采用基于边缘轮廓的匹配算法,受环境光线干扰影响小,且立体匹配速度比传统双目视觉立体定位算法速度快3~6倍,且在水平方向精度高达0.1mm,竖直方向精度高达1mm内,特别适用于Scara机器人抓取精度要求。附图说明图1是本专利技术方法的整体流程结构示意图。具体实施方式为使本专利技术的目的、技术方案和优点更加清楚,下面将结合附图对本专利技术作进一步地详细描述。参照图1所示的流程图。本专利技术实施例的一种双目视觉引导机器人快速抓取方法通过以下步骤进行。在开始前对双目相机的左右相机分别进行预处理,读取相机标定内参,对左右图像进行极线校正。在经过校正的左相机的左视图内创造目标感兴趣区域(ROI)第一步,基于边缘模板的创建1.采用Canny算法查找目标物体轮廓边缘。Step1:用高斯滤波器平滑图像公式:G(x,y)=f(x,y)*H(x,y)Step2:用一阶偏导的有限差分来计算图像梯度,方向公式图像梯度Magnitude图像方向DirectionStep3:做非最大值抑制在每一点上,邻域的中心象素M与沿着梯度线的两个象素相比。如果M的梯度值不比沿梯度线的两个相邻象素梯度值大,则令M=0。——假设上一步骤得到的梯度图为G(x,y);对G(x,y)进行初始化:N(x,y)=G(x,y)。——在梯度和反梯度方向上各找n个像素点。若G(x,y)不是这些点中的最大点,则将N(x,y)置为0,否则保持N(x,y)不变。Step4:双线性阈值减少假边缘段数量的典型方法是对N[i,j]使用一个阈值。将低于阈值的所有值赋零值。采用双阈值算法方法,双阈值算法对非极大值抑制图象作用两个阈值T1和T2,且2T1≈T2,从而可以得到两个阈值边缘图象N1[i,j]和N2[i,j]。由于N2[i,j]使用高阈值得到,因而含有很少的假边缘,但有间断(不闭合)。双阈值法要在N2[i,j]中把边缘连接成轮廓,当到达轮廓的端点时,该算法就在N1[i,j]的8邻点位置寻找可以连接到轮廓上的边缘,这样,算法不断地在N1[i,j]中收集边缘,直到将N2[i,j]连接起来为止。2.保存轮廓数据将边缘轮廓上各坐标点的x,y方向和梯度信息保存为模板模型。这些坐标将被重新排列成以重心坐标作为起点的点集。第二步,单视图中查找模板获取目标对象位置1.模型相似性度量及优化加速策略设轮廓模板点集为:其在x,y方向的梯度设为:其中i为模板轮廓的像素数据序列。求取待查找图像的梯度为:其中u为待查找图像的行坐标row,v为待查找图像的行坐标column。在匹配过程中,应该使用相似性度量将模板模型与所有位置处的搜索图像进行比较。相似性测度背后的思想是将模板图像梯度向量的所有归一化点求和,并在模型数据集中的所有点上搜索图像。结果将在搜索图像中的每个点上生成一个得分值。公式如下:如果模板模型和搜索图像之间存在完美匹配,则此函数将返回分数1。分数对应于搜索图像中可见对象的部分,如果对象不在搜索图像中,分数将为0。优选的是,为了加快搜索速度。当找到相似性度量时,为相似性度量设置一个最小分数(Smin),则不需要评估模板模型中的所有点。为了检查部分特定点J的得分S(u,v),必须找到部分和Sm。则点m处的Sm可以定义如下:显然,这个和的结果小于或等于1.所以当满足以下条件时即可停止计算:Sm>Smin-1+m/n另一个快速搜索的标准是:任何一点的局部得分都应该大于最小得分。即:Sm>Smin*m/n当使用这个条件时,匹配效率将会非常快。如果检查目标对象有部分边缘缺失,则局部求和值结果将会很低,这样该对象将被视为匹配不成功。则通过用另一个标准方式来改善这种情况:采用一个相对安全的停止搜索标准来检查模板模型的第一部分,剩下的用另一个更严格的标准Sminm/n,即用户可以指定一个贪婪参数(g),设定其中一部分模板模型用高标准来检查。如果g=1,模板模型中的所有点都用高标准检查,如果g=0,所有点将仅用安全标准检查。按照以下步骤来制定这个程序。上述局部分数的计算收敛停止标准:这种基于边缘的目标匹配方法具有几个优点:(1)匹配效率高于基于灰度的模板匹配算法(2~3倍左右)。(2)对于非线性光照变化是不变的,因为所有梯度矢量都被归一化。由于在边缘滤波上没有分割,所以它将显示真正的不变性,以防止任意的照明变化。(3)当物体部分可见或与其他物体混合时,这种相似性度量是稳健的。2.输出查找匹配获得结果的点集ML={(x,y)|x本文档来自技高网...

【技术保护点】
1.一种双目视觉引导机器人快速抓取方法,其特征在于,包括以下步骤:步骤1:对左右相机进行校正后,对左视图采用基于边缘轮廓的匹配算法获得目标点坐标位置;步骤2:针对所述目标点坐标位置,通过自适应权重匹配算法求出其在右视图上匹配结果,并获得视差值;步骤3:将所述视差值结果转换为深度信息;步骤4:根据所述深度信息计算输出目标抓取点的空间坐标,引导机器人完成快速定位抓取动作。

【技术特征摘要】
1.一种双目视觉引导机器人快速抓取方法,其特征在于,包括以下步骤:步骤1:对左右相机进行校正后,对左视图采用基于边缘轮廓的匹配算法获得目标点坐标位置;步骤2:针对所述目标点坐标位置,通过自适应权重匹配算法求出其在右视图上匹配结果,并获得视差值;步骤3:将所述视差值结果转换为深度信息;步骤4:根据所述深度信息计算输出目标抓取点的空间坐标,引导机器人完成快速定位抓取动作。2.根据权利要求1所述的双目视觉引导机器人快速抓取方法,其特征在于,所述步骤1还包括以下步骤:采用Canny算法查找目标物体轮廓边缘;保存轮廓数据,将边缘轮廓上各坐标点的x,y方向和梯度信息保存为模板模型,并将所述各坐标点重新排列为以重心坐标为起点的点集。3.根据权利要求2所述的双目视觉引导机器人快速抓取方法,其特征在于,所述步骤1还包括以下步骤:使用相似性度量将所述模板模型与所有位置处的...

【专利技术属性】
技术研发人员:陈力
申请(专利权)人:广东三三智能科技有限公司
类型:发明
国别省市:广东,44

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1