At the same time, a mobile robot visual servo and adaptive depth identification method, which belongs to the technical field of computer vision and mobile robot, based on polar coordinates of robot pose representation by open-loop kinematic equations of stabilization error. Then, according to the concurrent learning strategy, an adaptive update law is proposed to recognize the depth information, and then the visual stabilization law of the mobile robot is constructed. The parameter adaptive updating law designed by this method can learn in the early stage of the robot to do the stabilization movement, and then the depth information is identified online. According to Lyapunov method and LaSalle invariance principle, it can be proved that the pose error and depth identification error converge simultaneously. When the mobile robot completes the visual stabilization control, the depth information can be identified accurately and reliably, that is to say, the controller and the identification module converge simultaneously.
【技术实现步骤摘要】
一种移动机器人同时视觉伺服与自适应深度辨识方法
本专利技术属于计算机视觉与移动机器人的
,特别是涉及一种移动机器人同时视觉伺服与自适应深度辨识方法。
技术介绍
对于移动机器人系统,引入视觉传感器可大大增强其智能性,灵活性和环境感知能力[1-3](参见附录文献[1-3],以下表述均为附录中文献)。利用实时图像反馈来控制的移动机器人的运动,即视觉伺服技术,能够广泛运用于各种领域,如智能交通和环境勘探。由于这些原因,这项技术受到格外关注并且成为机器人领域的研究热点。对于视觉传感器,由于是根据透视投影模型成像的,深度信息的缺失是其主要缺陷。因此,对于单目摄像机视觉系统,难以完整恢复出外部三维场景信息和移动机器人自身运动信。另外,由于移动机器人存在非完整运动约束特点,使得位姿控制器的设计非常具有挑战性。因此,深度信息的缺失和非完整约束,使移动机器人视觉控制任务变得异常艰巨。然而,现有方法大多在原有视觉伺服控制器的基础上为未知深度信息设计补偿模块。在这种意义上,在视觉伺服任务完成后依然无法得到场景模型。由于工作空间信息仍无法完全获得,限制了机器人系统的进一步应用推广。因此,如何在视觉伺服控制的同时进行深度信息辨识,是机器人和控制领域内一个困难但非常有价值的问题。至今,为了完成移动机器人视觉伺服任务,已有许多处理深度信息缺失问题的解决方法。在文献[4]中,Zhang等人提出了一种两阶段的控制器利用逆推方法使移动机器人在摄像机外参数未知情况下驱动到目标位姿,其中使用自适应更新律对特征点平面的未知深度信息进行补偿。在文献[5]中,在对单一特征点深度信息进行补偿后,为移 ...
【技术保护点】
一种移动机器人同时视觉伺服与自适应深度辨识方法,其特征在于包括以下步骤:第1,定义系统坐标系,包括:第1.1,系统坐标系描述定义车载摄像机的坐标系与移动机器人的坐标系一致;以
【技术特征摘要】
1.一种移动机器人同时视觉伺服与自适应深度辨识方法,其特征在于包括以下步骤:第1,定义系统坐标系,包括:第1.1,系统坐标系描述定义车载摄像机的坐标系与移动机器人的坐标系一致;以表示机器人/摄像机期望位姿的直角坐标系,其中的原点在车轮轴线的中心点,也在摄像机的光心位置;z*轴与摄像机镜头的光轴重合,同时也和机器人前进方向重合;x*轴和机器人轮轴平行;y*轴垂直于x*z*平面;以表示摄像机/机器人当前位姿坐标系;以e(t)表示期望位置和当前位置之间的距离;θ(t)表示相对于的旋转角度;α(t)表示机器人当前位姿和从到的旋转向量之间的角度;φ(t)表示机器人期望位姿和从到的旋转向量之间的角度;另外,视野中有N个静止的共面特征点Pi(i=1,2...,n);定义是特征平面的单位法向量在中的表示;是从原点到沿n*的特征平面的未知距离;这里假设特征平面不经过原点,即d*≠0;第1.2,坐标系变换不失一般性,本方法以作为参考坐标系;从到的旋转矩阵和平移向量分别记为和*Tc(t);考虑到移动机器人的平面运动约束,和*Tc(t)的形式可写为如下形式:其中*Tcx(t)和*Tcz(t)分别表示的原点在中的x和z坐标;因此,机器人的当前位姿表示为(*Tcz(t),*Tcx(t),θ(t));第2,构造系统模型,包括:第2.1,可测量信号对于特征点Pi,在和采集到的图像分别表示期望图像和当前图像;利用单应性矩阵估计和快速分解技术,从当前图像和期望图像中得到机器人的相对位姿,即和n*;然后,得到笛卡尔坐标系下的含比例因子的机器人坐标,其形式为为了便于控制器的设计,将机器人的笛卡尔坐标转变为极坐标形式;定义e(t)为*Tc(t)的范数,即根据第1.1的假设d*≠0,定义可测的含比例因子的距离es(t)为:另外,φ(t),α(t)的计算公式分别为:α=φ-θ(4)第2.2,建立机器人运动学方程选择可测量信号es(t),φ(t),α(t)构造执行视觉伺服任务的摄像机机器人系统模型;用极坐标下的e(t),φ(t),α(t)表示移动机器人运动学方程为:
【专利技术属性】
技术研发人员:李宝全,师五喜,邱雨,郭利进,陈奕梅,
申请(专利权)人:天津工业大学,
类型:发明
国别省市:天津,12
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。