一种移动机器人同时视觉伺服与自适应深度辨识方法技术

技术编号:15546449 阅读:178 留言:0更新日期:2017-06-05 19:32
一种移动机器人同时视觉伺服与自适应深度辨识方法,属于计算机视觉与移动机器人的技术领域,首先根据机器人位姿的极坐标表示法,得到镇定误差的开环运动学方程。然后,根据并发学习策略,设计能将深度信息辨识出的自适应更新律,继而构造移动机器人的视觉镇定控制律。本方法设计的参数自适应更新律,可在机器人做镇定运动的初期进行学习,之后在机器人运动过程中对深度信息进行在线辨识。根据Lyapunov方法和LaSalle不变性原理,可证明出位姿误差与深度辨识误差同时收敛。在移动机器人完成视觉镇定控制的同时,本发明专利技术能将深度信息准确可靠辨识出,即能证明出控制器与辨识模块同时收敛。

A method for simultaneous visual servoing and adaptive depth identification of mobile robot

At the same time, a mobile robot visual servo and adaptive depth identification method, which belongs to the technical field of computer vision and mobile robot, based on polar coordinates of robot pose representation by open-loop kinematic equations of stabilization error. Then, according to the concurrent learning strategy, an adaptive update law is proposed to recognize the depth information, and then the visual stabilization law of the mobile robot is constructed. The parameter adaptive updating law designed by this method can learn in the early stage of the robot to do the stabilization movement, and then the depth information is identified online. According to Lyapunov method and LaSalle invariance principle, it can be proved that the pose error and depth identification error converge simultaneously. When the mobile robot completes the visual stabilization control, the depth information can be identified accurately and reliably, that is to say, the controller and the identification module converge simultaneously.

【技术实现步骤摘要】
一种移动机器人同时视觉伺服与自适应深度辨识方法
本专利技术属于计算机视觉与移动机器人的
,特别是涉及一种移动机器人同时视觉伺服与自适应深度辨识方法。
技术介绍
对于移动机器人系统,引入视觉传感器可大大增强其智能性,灵活性和环境感知能力[1-3](参见附录文献[1-3],以下表述均为附录中文献)。利用实时图像反馈来控制的移动机器人的运动,即视觉伺服技术,能够广泛运用于各种领域,如智能交通和环境勘探。由于这些原因,这项技术受到格外关注并且成为机器人领域的研究热点。对于视觉传感器,由于是根据透视投影模型成像的,深度信息的缺失是其主要缺陷。因此,对于单目摄像机视觉系统,难以完整恢复出外部三维场景信息和移动机器人自身运动信。另外,由于移动机器人存在非完整运动约束特点,使得位姿控制器的设计非常具有挑战性。因此,深度信息的缺失和非完整约束,使移动机器人视觉控制任务变得异常艰巨。然而,现有方法大多在原有视觉伺服控制器的基础上为未知深度信息设计补偿模块。在这种意义上,在视觉伺服任务完成后依然无法得到场景模型。由于工作空间信息仍无法完全获得,限制了机器人系统的进一步应用推广。因此,如何在视觉伺服控制的同时进行深度信息辨识,是机器人和控制领域内一个困难但非常有价值的问题。至今,为了完成移动机器人视觉伺服任务,已有许多处理深度信息缺失问题的解决方法。在文献[4]中,Zhang等人提出了一种两阶段的控制器利用逆推方法使移动机器人在摄像机外参数未知情况下驱动到目标位姿,其中使用自适应更新律对特征点平面的未知深度信息进行补偿。在文献[5]中,在对单一特征点深度信息进行补偿后,为移动机器人设计了一种联合视觉跟踪和控制的控制器。Mariottini等人根据视觉伺服过程中的真实值来设定距离参数[6],并且在文献[7]中使用同样的方法。在文献[8]中,Becerra等人在超扭曲控制器中设计了适当的控制增益来合并未知的深度信息,并在文献[9]和[10]中,根据单应矩阵中的项用控制增益抵消了未知的深度信息。Li等人利用基于视觉的模型预估控制驱动机器人到达期望位姿,并通过距离传感器,如激光,获得深度信息[11]。不幸的是,除了装置距离传感器,现有的方法无法通过补偿方式辨识深度信息。另一方面,虽然增加距离传感器能够解决深度辨识问题,其却无可避免地增加了系统复杂度和成本。为了使实际应用系统使用更加方便,充分利用图像数据和系统状态辨识深度信息仍然是较好的方法。最近,在机器人系统的距离信息辨识方面取得了一些研究成果。Hu等人用非线性观测器测出了物体的欧式坐标,其中用已知运动参数渐进地辨识出距离信息[12]。Dani等人在全局指数稳定下设计了降阶非线性观测器来辨识一个静止物体和运动相机之间的距离[13]。另外,距离信息和相机运动都可以被非线性观测器检测到,如文献[14]和[15]的研究结果。在机器人操作臂的视觉跟踪任务方面,设计距离观测器来测量末段执行器的位姿[16],移动物体的位姿[17],和机器人的速度[18]。Spica等人为常见视觉目标的结构提出一种动态估计方法,其能够在期望瞬态响应下运行并提高执行视觉伺服任务时的表现[19]。与机器臂相比,驱动移动机器人时应考虑到非完整约束,其为深度辨识带来更多挑战。在文献[20]中,构造了一种适应算法,其利用在视觉轨道跟踪任务中的目标特征来估计移动机器人位姿。Luca等人设计了非线性观测器以在移动机器人视觉伺服中渐进地找到特征深度[21]。然而,现有方法普遍要求在持续激励条件下并且仅有渐进收敛性质。因而,无法保证控制误差收敛之前观测误差收敛至零,造成无法保证控制器/观测器组合系统全局稳定。因此,如何同时完成控制和深度辨识仍然是一项具有挑战的任务。为了在与所设计的控制器协调一致的前提下辨识相关系统参数,许多研究人员都已注意到并发学习结构。Chowdhary等人开发了一种并发学习参考模型控制器,他使用当前和已知数据并发进行自适应来保证在没有持续激励条件情况下的未知线性动态系统的全局指数稳定[22]。他们同时也将并发学习自适应控制器运用到飞行器上,并因自适应律限制了权重更新提高了其运动表现[23]。另外,可运用并发学习结构运用来辨识神经网络的未知参数,然后获得控制任务的近似最优性质,如移动机器人的路径跟踪[24]和非线性系统控制[25]。为了在控制过程中重建场景信息,Parikh等人设计了一种并发学习自适应控制策略完成机器臂的轨道跟踪任务,其中使用历史数据的增强的自适应更新律能保证在没有持续激励时完成指数跟踪和特征深度估计[26]。另外,由于非完整运动约束和运动路径的有限长度完成在轮式移动机器人视觉伺服过程中辨识深度信息会面临更多挑战。本专利技术受到[26]和[27]的启发,开发了一种自适应视觉伺服方法,完成了对轮式移动机器人同时位姿控制和深度辨识任务。
技术实现思路
本专利技术的目的是解决现有移动机器人视觉深度信息辨识存在的上述不足,提供一种移动机器人同时视觉伺服与自适应深度辨识方法。本专利技术提出了一种新颖的移动机器人同时视觉伺服与自适应深度辨识方法。该方法最大的特点是完成同时视觉伺服和深度辨识。因而解决了现有的移动机器人视觉伺服时辨识深度信息的问题,并且无需外加距离传感器,不增加系统复杂度和成本。具体而言,首先,由可测量信号定义移动机器人位姿误差,接着,由包含未知特征深度的极坐标获得运动学模型。进而,根据并发学习方法策略,利用记录数据和当前数据为未知特征深度设计增强的自适应更新律。之后,设计有极坐标表示法的调节控制器来驱动移动机器人在非完整约束下到达指定位姿。然后,根据Lyapunov方法和LaSalle不变性原理,证明出位姿误差与深度辨识误差同时收敛。因此,解决了控制器和辨识模块作为一个整体的全局稳定性问题。仿真与实验结果均证明本方法有效可靠。本专利技术主要做出了以下几方面贡献:1.成功辨识视野的深度信息,通过视觉系统得到对外部环境的良好感知;2.用极坐标表示法的连续控制器将机器人有效驱动到期望位姿;3.因误差同时收敛,组合控制器和深度辨识模块解决系统全局稳定问题。在文献[28]中,Fang等人建造了一种平滑的随时间变化的控制器调节机器人到达期望位姿,其中通过自适应更新律补偿特征深度信息。同样通过设计自适应控制器,Zhang等人有效且自然地完成了位姿控制任务。和以上两种方法相比,本方法证明深度辨识误差在控制过程中收敛至零。和文献[34]相比,本方法解决了非完整运动约束下位姿控制任务中的深度辨识问题。本专利技术提供的移动机器人同时视觉伺服与自适应深度辨识方法包括:第1,定义系统坐标系第1.1,系统坐标系描述定义车载摄像机的坐标系与移动机器人的坐标系一致;以表示机器人/摄像机期望位姿的直角坐标系,其中的原点在车轮轴线的中心点,也在摄像机的光心位置;z*轴与摄像机镜头的光轴重合,同时也和机器人前进方向重合;x*轴和机器人轮轴平行;y*轴垂直于x*z*平面;以表示摄像机/机器人当前位姿坐标系;以e(t)表示期望位置和当前位置之间的距离;θ(t)表示相对于的旋转角度;α(t)表示机器人当前位姿和从到的旋转向量之间的角度;φ(t)表示机器人期望位姿和从到的旋转向量之间的角度;θ(t),α(t),φ(t)的方向均被标出,图中他们本文档来自技高网
...
一种移动机器人同时视觉伺服与自适应深度辨识方法

【技术保护点】
一种移动机器人同时视觉伺服与自适应深度辨识方法,其特征在于包括以下步骤:第1,定义系统坐标系,包括:第1.1,系统坐标系描述定义车载摄像机的坐标系与移动机器人的坐标系一致;以

【技术特征摘要】
1.一种移动机器人同时视觉伺服与自适应深度辨识方法,其特征在于包括以下步骤:第1,定义系统坐标系,包括:第1.1,系统坐标系描述定义车载摄像机的坐标系与移动机器人的坐标系一致;以表示机器人/摄像机期望位姿的直角坐标系,其中的原点在车轮轴线的中心点,也在摄像机的光心位置;z*轴与摄像机镜头的光轴重合,同时也和机器人前进方向重合;x*轴和机器人轮轴平行;y*轴垂直于x*z*平面;以表示摄像机/机器人当前位姿坐标系;以e(t)表示期望位置和当前位置之间的距离;θ(t)表示相对于的旋转角度;α(t)表示机器人当前位姿和从到的旋转向量之间的角度;φ(t)表示机器人期望位姿和从到的旋转向量之间的角度;另外,视野中有N个静止的共面特征点Pi(i=1,2...,n);定义是特征平面的单位法向量在中的表示;是从原点到沿n*的特征平面的未知距离;这里假设特征平面不经过原点,即d*≠0;第1.2,坐标系变换不失一般性,本方法以作为参考坐标系;从到的旋转矩阵和平移向量分别记为和*Tc(t);考虑到移动机器人的平面运动约束,和*Tc(t)的形式可写为如下形式:其中*Tcx(t)和*Tcz(t)分别表示的原点在中的x和z坐标;因此,机器人的当前位姿表示为(*Tcz(t),*Tcx(t),θ(t));第2,构造系统模型,包括:第2.1,可测量信号对于特征点Pi,在和采集到的图像分别表示期望图像和当前图像;利用单应性矩阵估计和快速分解技术,从当前图像和期望图像中得到机器人的相对位姿,即和n*;然后,得到笛卡尔坐标系下的含比例因子的机器人坐标,其形式为为了便于控制器的设计,将机器人的笛卡尔坐标转变为极坐标形式;定义e(t)为*Tc(t)的范数,即根据第1.1的假设d*≠0,定义可测的含比例因子的距离es(t)为:另外,φ(t),α(t)的计算公式分别为:α=φ-θ(4)第2.2,建立机器人运动学方程选择可测量信号es(t),φ(t),α(t)构造执行视觉伺服任务的摄像机机器人系统模型;用极坐标下的e(t),φ(t),α(t)表示移动机器人运动学方程为:

【专利技术属性】
技术研发人员:李宝全师五喜邱雨郭利进陈奕梅
申请(专利权)人:天津工业大学
类型:发明
国别省市:天津,12

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1