The invention discloses a robot vision control method based on point feature. Aiming at monocular vision scene which is difficult to obtain depth information, the method uses Jacobian matrix of point feature to decouple translation motion and rotation motion, and uses translation motion to compensate point characteristics caused by rotation motion. The method can estimate the depth of the target only by one active motion of the camera in the monocular vision scene, and get rid of the restriction of the depth information on the visual control method based on the point feature, at the same time translating motion and rotating motion can be achieved. The decoupling method ensures that the target is not lost in the field of vision, reduces the calculation of depth information, improves the success rate of visual control, and can further promote the use of point features in monocular vision scene.
【技术实现步骤摘要】
一种基于点特征的机器人视觉控制方法
本专利技术属于机器人控制领域,更具体地涉及一种基于点特征的视觉控制方法。
技术介绍
在机器人控制过程中,对目标的精确识别、定位及检测是控制成功的关键。视觉传感器能够感知丰富的环境信息,且安装使用方便,是进行机器人控制的重要传感器。通过对视觉传感器获取的图像信息进行处理,可以得到目标的轮廓、形状、颜色等信息,还可以实现目标的运动检测、相对定位等。根据视觉误差信号的选择,可将视觉系统分为基于位置的视觉控制、基于图像的视觉控制和混合视觉控制。其中,基于图像的视觉控制方法对摄像机的标定误差和空间模型误差不敏感,控制器设计的灵活性大,计算过程较简单,在视觉控制领域得到了最为广泛的应用。在基于图像的视觉伺服控制方法中,点特征是机器人视觉跟踪、视觉控制中的常用特征。然而,单目视觉场景中,由于难以获取目标的深度信息,点特征的使用受到制约。基于此,Liu等建立深度无关的雅克比矩阵,采用eye-in-Hand形式的视觉系统,利用点特征在机器人的关节空间进行视觉伺服控制(LiuYH,WangH,ChenW,etal.Adaptivevisualservoingusingcommonimagefeatureswithunknowngeometricparameters[J],Automatica,2013,49(8):2453-2460.)。该方法摆脱了深度信息对视觉控制的约束,但在雅克比矩阵估计过程中,需要将深度信息相关的项单独提取出来作为一个比例项,计算过程繁琐。Kawamura等将图像平面的四个点特征构建成一个四边形,通过实时跟踪四个点特 ...
【技术保护点】
1.一种基于点特征的机器人视觉控制方法,包括以下步骤:步骤S0,使用一个视觉传感器获取目标图像;步骤S1:从所述视觉传感器获得的目标图像中选择视觉敏感的至少三个点特征,离线得到所述点特征的期望图像坐标,在线提取所述点特征的当前图像坐标,比较当前值和期望值,得到当前点特征和期望点特征之间的图像偏差;步骤S2:基于小孔模型,利用摄像机一次运动前后引起的点特征坐标变化,对点特征的当前深度值进行估计;步骤S3:根据S1的点特征信息和S2的深度信息,得到点特征的雅克比矩阵;步骤S4:基于S3的点特征雅克比矩阵,求取摄像机的平移量和旋转量;步骤S5:基于S3的点特征雅克比矩阵,求取S4的旋转量产生的点特征坐标变化量;步骤S6:根据S3的点特征雅克比矩阵,计算补偿S5的点特征坐标变化量所需要的平移量;步骤S7:根据S4的平移量和S6的平移补偿量,得到摄像机的平移总量;步骤S8:根据S4的旋转量和S7的平移总量,得到机器人的运动调整量,实现机器人的六自由度控制。
【技术特征摘要】
1.一种基于点特征的机器人视觉控制方法,包括以下步骤:步骤S0,使用一个视觉传感器获取目标图像;步骤S1:从所述视觉传感器获得的目标图像中选择视觉敏感的至少三个点特征,离线得到所述点特征的期望图像坐标,在线提取所述点特征的当前图像坐标,比较当前值和期望值,得到当前点特征和期望点特征之间的图像偏差;步骤S2:基于小孔模型,利用摄像机一次运动前后引起的点特征坐标变化,对点特征的当前深度值进行估计;步骤S3:根据S1的点特征信息和S2的深度信息,得到点特征的雅克比矩阵;步骤S4:基于S3的点特征雅克比矩阵,求取摄像机的平移量和旋转量;步骤S5:基于S3的点特征雅克比矩阵,求取S4的旋转量产生的点特征坐标变化量;步骤S6:根据S3的点特征雅克比矩阵,计算补偿S5的点特征坐标变化量所需要的平移量;步骤S7:根据S4的平移量和S6的平移补偿量,得到摄像机的平移总量;步骤S8:根据S4的旋转量和S7的平移总量,得到机器人的运动调整量,实现机器人的六自由度控制。2.根据权利要求1所述的基于点特征的机器人视觉控制方法,其中步骤S1中所述点特征的当前图像偏差是通过下式来计算的:其中,△u、△v分别表示点特征在U方向和V方向的图像坐标偏差。(ud,vd)表示点特征的期望图像坐标,(u,v)表示点特征的当前图像坐标。3.根据权利要求1所述的基于点特征的机器人视觉控制方法,其中步骤S2中所述的点特征的当前深度值估计过程如下:对于摄像机坐标系中的点(xc,yc,zc),焦距归一化成像平面上的成像点坐标为(x1c,y1c,1)。将式(2)对时间求导数,改写为矩阵形式式(3)为点特征在笛卡儿空间的平移运动速度与投影到成像平面空间的运动速度之间的关系。由小孔模型可知,因此,利用式(3)容易得到点特征在笛卡儿空间的平移运动速度与在图像平面的运动速度之间的关系摄像机的运动会导致点特征在摄像机坐标系中的运动。点特征在摄像机坐标系中的运动速度与摄像机在笛卡儿空间运动速度之间的关系为式中:Xc=[xc,yc,zc]T是点特征的位置向量,vca=[vcax,vcay,vcaz]T是摄像机的线速度向量,ωca=[ωcax,ωcay,ωcaz]T是摄像机的角速度向量。将式(5)代入式(3),合并同类项,并应用式(2),有式(6)中,计算xc1和yc1时,涉及摄像机的内参数。zc的值是该点相对于摄像机坐标系的深度。...
【专利技术属性】
技术研发人员:卢金燕,栗科峰,熊欣,郭壮志,黄全振,
申请(专利权)人:河南工程学院,
类型:发明
国别省市:河南,41
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。