基于非线性模型预测的智能小车2.5维视觉伺服控制方法技术

技术编号:8215096 阅读:255 留言:0更新日期:2013-01-17 10:40
本发明专利技术公开一种基于非线性模型预测的智能小车2.5维视觉伺服控制方法,首先在当前位姿和期望位姿处通过摄像机分别获取参考目标的当前图像和期望图像;然后从获取的图像中提取参考目标的特征点以及小车的姿态信息,通过坐标变换将二维图像信号与三维姿态信号进行有机结合,建立2.5维视觉误差模型;最后针对2.5维视觉误差模型,利用非线性模型预测控制方法设计一种多级视觉预测控制器。本发明专利技术解决现有2.5维视觉伺服控制方法不能处理运动执行系统存在的速度和力矩约束以及摄像机的可见性约束问题,能够确保参考目标在伺服过程中始终保持可见,大大提高视觉伺服系统的可靠性和安全性。

【技术实现步骤摘要】

本专利技术涉及智能机器人
,具体地说是指一种基于非线性模型预测的智能小车2. 5维视觉伺服控制方法。
技术介绍
智能小车视觉伺服是指利用视觉传感器获取的视觉信息对小车位置和方向进行精确控制。视觉伺服对于提高小车的智能化水平与工作能力具有非常重要的意义,可以提高小车对外界环境的学习和适应能力。按照反馈信息类型的差别,视觉伺服可以分为三维视觉伺服、二维视觉伺服以及2. 5维视觉伺服,其中2. 5维视觉伺服是一种将二维信息与三维信息有机结合的混合伺服方法,可以在一定程度上解决三维和二维视觉伺服存在的鲁棒性、奇异性、局部极小等问题。因此,智能小车2. 5维视觉伺服越来越受到广泛关注。 近年来,国内外许多研究学者对2. 5维视觉伺服控制方法做了大量的研究。FangYongchun 等人在 2005 年 IEEE Transactions on Systems, Man, and Cybernetics, PartB: Cybernetics, 35(5)期刊上设计了一种基于单应矩阵的2. 5维视觉伺服控制策略,这种方法在深度信息未知的情况下仍然能够使移动机器人渐近运动到由一副参考图像定义的期望位姿° Wang Chaoli 在 2011 年 IEEE International Conference on Robotics andAutomation会议上采用两阶段技术设计了一种鲁棒视觉控制器,在缺乏深度信息和精确的视觉参数情况下实现了对移动机器人图像位置和三维姿态的控制。针对系统模型参数的不确定性及外界干扰,Yang Fang等人在2011年Acta Automatica Sinica, 37 (7)期刊上采用自适应控制和滑模控制技术来设计视觉控制器。以上方法对于实现智能小车2. 5维视觉伺服控制具有重要的借鉴作用,但并未考虑运动执行系统存在的速度和力矩约束及摄像机的可见性约束,在伺服过程中参考目标可能偏离于摄像机的视野之外,从而致使伺服失败。
技术实现思路
本专利技术的目的在于提供一种基于非线性模型预测的智能小车2. 5维视觉伺服控制方法,以解决现有2. 5维视觉伺服控制方法在设计视觉控制器时未考虑运动执行系统存在的控制约束和摄像机的可见性约束问题。本专利技术方法利用非线性模型预测控制设计一种多级视觉预测控制器,控制小车从初始位姿运动到期望位姿同时使参考目标始终处于摄像机视野之内。本专利技术方法采用的技术方案如下I)在当前位姿和期望位姿处通过摄像机分别获取参考目标的当前图像和期望图像;2)从获取的当前图像和期望图像中提取参考目标的特征点及小车的姿态信号,建立2. 5维视觉误差模型;设目标特征点在当前图像中的位置为p=T,在期望图像中的位置为pd=T,Θ和别为智能小车的当前方向角和期望方向角,通过坐标变换将二维图像信号与三维姿态信号进行有机结合,构造一种2. 5维视觉误差信号,其中Sl,Sld,S2,S2d为经过坐标变换的二维图像信号,Θ ed为三维姿态误差信号;3)根据步骤2)中的2. 5维视觉误差模型,利用非线性模型预测控制方法设计一种多级视觉预测控制器,使2. 5维视觉误差信号渐近收敛,进而完成小车视觉伺服任务。步骤3)中设计的多级视觉预测控制器至少由两个子控制器组成,一个为运动学控制器,另一个为动力学控制器,其中运动学控制器的输出作为动力学控制器的输入。运动学控制器的控制包含以下步骤首先,采用欧拉近似法对2. 5维视觉误差模型进行离散化处理,获得视觉误差预测模型e(k+j|k),其中,T为采样周期,v(k)和ω (k)分别为小车在k时刻的线速度和角速度,符号(k+j |k)表示在k时刻向前预测j步得到的预测值; 其次,将小车速度ν=τ作为控制输入,构造一个由2. 5维视觉误差预测信号和控制输入表示的二次目标函数J (k),其中Np为预测时域,N。为控制时域,Q和R为正定的斜对称加权矩阵;_5]最后,加入可见性约束(iw,u_),( Uniin,,u_)和速度约束(Vniin,,ν_),其中(U,υ)为目标特征点在图像平面上的像素坐标,通过求解带有约束的二次目标函数J(k)的优化问题来获得最优控制序列/,取其第一项v(k|k)作为运动学控制器的输出,使得视觉误差信号渐近收敛,即Iimpooe=O ;动力学控制器的控制包含以下步骤首先,利用欧拉近似法对小车动力学模型进行离散化处理,获得小车实际速度预测模型V (k+j Ik),其中τ (k) = Τ分别为小车在k时刻的驱动力矩和转动力矩;其次,将运动学控制器的输出作为动力学控制器的参考输入,定义δ为小车实际速度与参考输入速度之间的速度误差,构造一个由预测的速度误差信号和力矩表示的二次目标函数舛幻其中义为预测时域,Fc为控制时域,泛和瓦为正定的斜对称加权矩阵;最后,加入力矩约束(τ_,,τ_),最小化二次目标函数火幻获得最优控制序列 取其第一项τ (k|k)作为动力学控制器的输出,控制小车速度,使得速度误差渐近收敛,即 Iimt^00 δ =0,从而使得 Iimt^00 e=0。与现有技术相比,本专利技术具有以下优点及有益效果本专利技术利用非线性模型预测控制技术将2. 5维视觉伺服任务转化为非线性优化问题,在设计视觉控制器时能够方便处理系统中存在的约束。本专利技术解决现有2. 5维视觉伺服控制方法不能处理运动执行系统存在的速度和力矩约束以及摄像机的可见性约束问题,能够确保参考目标在伺服过程中始终保持可见,大大提高视觉伺服系统的可靠性和安全性。本专利技术实现简单,鲁棒性强,不需要精确的过程模型。附图说明图I是本专利技术中的一个两轮智能小车系统模型示意图;图2是本专利技术中的智能小车2. 5维视觉伺服控制方法结构示意图;图3 8是本专利技术中的未考虑可见性约束时智能小车2. 5维视觉伺服控制仿真结果图;其中图3为智能小车在XY平面上的运动轨迹仿真图;图4为特征点在图像平面上的运动轨迹仿真图;图5为2. 5维视觉误差曲线图;图6为智能小车实际线速度和期望线速度曲线图;图7为智能小车实际角速度和期望角速度曲线图;图8为智能小车驱动力矩和转动力矩曲线图;图9 14是本专利技术中的考虑可见性约束时智能小车2. 5维视觉伺服控制仿真结果图;其中 图9为智能小车在XY平面上的运动轨迹仿真图;图10为特征点在图像平面上的运动轨迹仿真图;图11为2. 5维视觉误差曲线图;图12为智能小车实际线速度和期望线速度曲线图;图13为智能小车实际角速度和期望角速度曲线图;图14为智能小车驱动力矩和转动力矩曲线图。具体实施例方式为了更好地理解本专利技术的技术方案,下面结合实施例和附图对本专利技术的实施方式做进一步的介绍。实施例如图I所示为两轮智能小车系统,左右轮独立驱动,摄像机固定安装在小车上。0-XYZ,o-xryr,C-xcyczc分别为世界坐标系、机器人坐标系和摄像机坐标系,小车质心ο位于两驱动轮的中心,摄像机原点C与质心ο的距离为1,r为轮子半径,L为轮子到质心的距离。视觉伺服的任务是利用摄像机获取的视觉信息控制小车从初始位姿运动到期望位姿,并保证目标在运动过程中始终可见。实施步骤如下I)在当前位姿和期望位姿处通过摄像机分别获取参考目标的当前图像和期望图像;2)从获取的当前图像和期望图像中提取参考目标的特征点及小车的本文档来自技高网
...

【技术保护点】
一种基于非线性模型预测的智能小车2.5维视觉伺服控制方法,其特征在于:包含以下步骤:1.1.在当前位姿和期望位姿处通过摄像机分别获取参考目标的当前图像和期望图像;1.2.从获取的当前图像和期望图像中提取参考目标的特征点及小车的姿态信号,建立2.5维视觉误差模型;设目标特征点在当前图像中的位置为p=[px,py]T,在期望图像中的位置为pd=[pxd,pyd]T,θ和θd分别为移动小车的当前方向角和期望方向角,通过坐标变换将二维图像信号与三维姿态信号进行有机结合,构造一种2.5维视觉误差信号,其中s1,s1d,s2,s2d为经过坐标变换的二维图像信号,θed为三维姿态误差信号;1.3.根据步骤1.2中的2.5维视觉误差模型,利用非线性模型预测控制方法设计一种多级视觉预测控制器,使2.5维视觉误差信号渐近收敛。

【技术特征摘要】

【专利技术属性】
技术研发人员:曹政才殷龙杰付宜利王永吉
申请(专利权)人:北京化工大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1