当前位置: 首页 > 专利查询>北部湾大学专利>正文

一种机器人视觉伺服抓取目标定位方法技术

技术编号:27845471 阅读:15 留言:0更新日期:2021-03-30 12:50
本发明专利技术属于机器人视觉图像处理技术领域。一种机器人视觉伺服抓取目标定位方法,基于Shi

【技术实现步骤摘要】
一种机器人视觉伺服抓取目标定位方法


[0001]本专利技术属于机器人视觉图像处理
,具体涉及一种机器人视觉伺服抓取目标定位方法。

技术介绍

[0002]目前机器人在工业应用中大部分是通过示教编程的方式运行,机器人工作前期需要进行大量的示教和调试,在机器人操作的过程中,机器人的初始和终止位姿是事先设定并严格规定的,虽然速度较快,但如果目标物体的位置不固定就会造成机器人抓取失败,工作效率低。近些年来,将机器视觉和机器人技术结合应用在生产中已经成为一种趋势,机器视觉采集外界环境信息并对其进行处理整合,然后反馈给机器人控制系统,由控制系统实时引导机器人完成作业。使用机器视觉技术对生产线上的目标进行检测与识别,可极大的提高生产线的智能化水平与产品的质量。目前机器人视觉已经广泛的应用在物件分拣、缺陷检测、装配、包装等各个领域。其中目标识别实时定位是机器人利用视觉实现抓取的关键技术和主要研究点。
[0003]现有的机器人视觉伺服抓取目标定位系统可实时采集机器人观察到的图像和感受到力量反馈。根据不同的工件、维度选择合适的力度,从抓取、装配到检测,一般最快仅需0.1秒。但是满足该速度的话需要增设双目立体影像成像系统或基于深度图像绘制的立体成像系统,但是现有成像系统传输效率低,图像匹配精度不高,目标定位误差大,计算效率低,因此影响机器人目标识别与定位。机器人视觉伺服抓取,对定位精度和实时性要求较高,但经典的SIFT、SURF算法虽然定位精度高,但实时性差,ORB算法以速度快著称,但定位精度不能满足要求。
[0004]有鉴于此,本专利技术提供一种机器人视觉伺服抓取目标定位方法。

技术实现思路

[0005]为了克服现有技术所存在的问题,本专利技术提供一种算法时间复杂度低,精度高且速度快的新型的机器人视觉伺服抓取目标定位方法。
[0006]为了实现上述目的,本专利技术采用以下技术方案:
[0007]一种机器人视觉伺服抓取目标定位方法,该方法包括如下步骤:
[0008]S1、使用机器人携带的视觉传感器采集数据集中的两幅图像作为待比较图像,其中一幅为标准图像,另一幅为场景图像;
[0009]S2、采用Shi

Tomasi算法提取所述两幅待比较图像中的特征点;
[0010]S3、构造特征描述子;
[0011]S3.1、以特征点为中心截取子图像;
[0012]S3.2、利用二维高斯函数偏导数确定特征方向;
[0013]S3.3、根据特征方向对局部图像做方向标准化处理获取标准化局部图像;
[0014]S3.4、提取标准化局部图像的LBP特征作为特征描述子;
[0015]S4、通过计算两幅图像中各特征点描述子间的汉明距离判断相似度,实现特征匹配,根据匹配结果,估计单应性矩阵,定位目标在场景图像中的位置和方向;
[0016]进一步的,所述S2中,采用Shi

Tomasi算法提取所述两幅待比较图像中的特征点的具体方法为:
[0017]首先,以待检测点为中心加窗,获取窗内像素强度,然后,移动窗口,重新获取窗内像素强度,计算窗口移动前后的强度差,若沿任意方向移动窗口,强度差值大于预设值,则认为待检测点为特征点;
[0018]其中,强度差抽象为(1)式:
[0019][0020]W(x,y)为采样窗口;u,v为以待测点为中心的偏移量;
[0021]由泰勒公式:I(x+u,y+v)=I(x,y)+I
x
u+I
y
v+O(u2,v2),其中,I
x
,I
y
为偏导数,于是:
[0022][0023]则(1)式近似为:
[0024]令求矩阵M的特征值λ1,λ2以确定特征点;
[0025]进一步的,所述S3具体是按照如下方法实现的:
[0026]①
以特征点为中心截取局部图像I
21
×
21

[0027]取样窗口的窗口尺寸为21
×
21;
[0028]②
获取7
×
7大尺度局部图像I7×7;
[0029]将I
21
×
21
划分为7
×
7个区域,区域尺寸为3
×
3,对每个区域像素值求和,作为大尺度图像的像素值,得到大尺度局部图像I7×7,
[0030]③
由大尺度局部图像I7×7,利用高斯函数两个偏导数(4.1)式和(4.1)式设计方向滤波器,确定特征点方向角θ;
[0031][0032][0033]取σ=1,得到两个方向滤波器f
x
,f
y
如下:
[0034][0035][0036]注意到方向滤波器f
x
,f
y
,边角位置取0,目的是确定方向时,削弱旋转造成的影响。将大尺度局部图像I7×7分别与f
x
,f
y
卷积(滤波),得到G
x
,G
y
,则特征点方向角θ=arctan(G
y
/G
x
);
[0037]④
由大尺度局部图像I7×7和方向角θ,获取5
×
5标准化局部图像I5×5;
[0038]将原坐标系xoy旋转θ角,构建新坐标系x'oy',在x'oy'坐标系下取样5
×
5个整数位置点得到标准化局部图像I5×5,则各点(x',y')在xoy坐标系下位置(x,y)由(5)式确定:
[0039][0040]⑤
提取标准化局部图像I5×5的LBP特征作为特征描述子;LBP特征在一个3
×
3的图像块中对区域进行描述,将中心像素的灰度作为阈值,与其8个邻域像素的灰度值对比并二值化,大于该阈值置1,否则置0,然后与加权矩阵对应的值相乘,得到8位二进制串作为LBP特征。
[0041]进一步的,所述S4中,特征匹配的具体步骤如下:
[0042]①
选择标准图像中的任意描述子G
[m];
[0043]②
在场景图描述子中寻找G'
[n],使得d(G
[m],G'
[n])最小;
[0044]③
若d(G
[m],G'
[n])<τ,则认为标准图像特征点m与场景图像特征点n匹配,其中τ为阈值。
[0045]进一步的,所述S4中,定位目标在场景图像中的位置和方向是按照如下方式实现的:
[0046]①
寻找两组匹配特征点间的变换关系,即估计归一化单应性矩阵(6)式,
[0047]满足:
[0048]其中,t
11
,t
12
,t
21
,t
22
...

【技术保护点】

【技术特征摘要】
1.一种机器人视觉伺服抓取目标定位方法,其特征在于,该方法包括如下步骤:S1、使用机器人携带的视觉传感器采集数据集中的两幅图像作为待比较图像,其中一幅为标准图像,另一幅为场景图像;S2、采用Shi

Tomasi算法提取所述两幅待比较图像中的特征点;S3、构造特征描述子;S3.1、以特征点为中心截取子图像;S3.2、利用二维高斯函数偏导数确定特征方向;S3.3、根据特征方向对局部图像做方向标准化处理获取标准化局部图像;S3.4、提取标准化局部图像的LBP特征作为特征描述子;S4、通过计算两幅图像中各特征点描述子间的汉明距离判断相似度,实现特征匹配,根据匹配结果,估计单应性矩阵,定位目标在场景图像中的位置和方向。2.根据权利要求1所述的一种机器人视觉伺服抓取目标定位方法,其特征在于,所述S2中,采用Shi

Tomasi算法提取所述两幅待比较图像中的特征点的具体方法为:首先,以待检测点为中心加窗,获取窗内像素强度,然后,移动窗口,重新获取窗内像素强度,计算窗口移动前后的强度差,若沿任意方向移动窗口,强度差值大于预设值,则认为待检测点为特征点;其中,强度差抽象为(1)式:W(x,y)为采样窗口;u,v为以待测点为中心的偏移量;由泰勒公式:I(x+u,y+v)=I(x,y)+I
x
u+I
y
v+O(u2,v2),其中,I
x
,I
y
为偏导数,于是:则(1)式近似为:令求矩阵M的特征值λ1,λ2以确定特征点。3.根据权利要求1所述的一种机器人视觉伺服抓取目标定位方法,其特征在于,所述S3具体是按照如下方法实现的:

以特征点为中心截取局部图像I
21
×
21
;取样窗口的窗口尺寸为21
×
21;

获取7
×
7大尺度局部图像I7×7;将I
21
×
21
划分为7
×
7个区域,区域尺寸为3
×
3,对每个区域像素值求和,作为大尺度图像的像素值,得到大尺度局部图像I7×7,

由大尺度局部图像I7×7,利用高斯函数两个偏导数(4.1)式和(4.1)式设计方向滤波器,确定特征点方向角θ;
取σ=1,得到两个方向滤波器f
x
,f
y
如下:如下:注意到方向滤波器f
x
,f
y
,边角位置取0,目的是确定方向时,削弱旋转造成的影响。将大尺度局部图像I7×7分别与f

【专利技术属性】
技术研发人员:张震朱留存张照崎魏金占苗志滨王骥月赵成龙张坤伦
申请(专利权)人:北部湾大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1