当前位置: 首页 > 专利查询>中南大学专利>正文

鲁棒非线性模型预测控制的视觉伺服目标追踪控制方法技术

技术编号:38886700 阅读:18 留言:0更新日期:2023-09-22 14:14
本发明专利技术提供了一种鲁棒非线性模型预测控制的视觉伺服目标追踪控制方法,包括:获取图像数据并提取图像特征,获取无人机姿态信息,整合得到总体系统模型;设置高增益状态观测器和深度估计器对无人机运动速度和特征深度进行估计;构建性能约束和紧状态约束,基于性能约束和紧状态约束设计鲁棒非线性模型预测控制视觉伺服控制器,使得无人机在随机扰动下能够对地面目标进行追踪,并且整个追踪过程满足预先构建的性能约束本发明专利技术解决了传统控制器在时变、欠驱动、状态耦合的非线性系统中的适用性较差、无法对系统状态量和输入量进行约束的问题,实现了无人机平滑追踪地面目标并保持目标在相机视野范围内。目标在相机视野范围内。目标在相机视野范围内。

【技术实现步骤摘要】
鲁棒非线性模型预测控制的视觉伺服目标追踪控制方法


[0001]本专利技术涉及无人机目标追踪
,特别涉及一种鲁棒非线性模型预测控制的视觉伺服目标追踪控制方法。

技术介绍

[0002]近年来,四旋翼无人机在各种应用领域中得到了广泛的应用。在农业领域四旋翼无人机可以进行精准的作物喷洒和监测,提高农作物的产量和质量;在军用方面,四旋翼无人机可以用于战场侦察、目标追踪、空中侦察和打击等任务,具有重要的作用;在消防领域,四旋翼无人机可以用于高空灭火和火场侦查,提高灭火效率和救援速度;在安保领域,四旋翼无人机可以用于边境巡查和监测等任务,提高边境安全水平。这些应用场景都需要四旋翼无人机具有较高的自主飞行和导航能力,而视觉伺服技术正是实现这一目标的重要手段。
[0003]视觉伺服技术是指通过摄像头获取实时图像,将图像信息处理成控制指令,从而实现四旋翼无人机的自主飞行、导航和任务执行等功能。相比于传统的惯性导航系统,视觉伺服技术具有更高的精度和鲁棒性,能够适应更加复杂和多变的环境,实现更加精准和可靠的控制。因此,视觉伺服技术在无人机的控制和应用中发挥着不可替代的作用。
[0004]四旋翼无人机在视觉伺服目标追踪领域一直是研究的热点之一。随着机载计算机的计算能力和传感器的不断提升,四旋翼无人机在目标追踪和识别方面的能力也得到了大幅提高。目标追踪技术在军事、安防、交通等领域都有广泛应用,可以有效提高自主飞行器的应用效果和实用价值。
[0005]然而,在实际应用中,四旋翼无人机在视觉伺服目标追踪方面仍然存在一些挑战和难点。首先,目标在追踪过程中可能会出现光照变化、遮挡和运动模糊等问题,影响追踪效果。其次,由于视觉传感器的局限性,目标在不同距离和角度下的特征信息可能会发生变化,导致追踪算法需要针对不同情况进行调整。此外,飞行平台本身的姿态变化和动态控制也会影响追踪算法的实时性和鲁棒性。因此,如何提高视觉伺服目标追踪的鲁棒性、实时性和精度,仍然是当前研究的难点和挑战。

技术实现思路

[0006]本专利技术的目的是:针对上述
技术介绍
中存在的不足,提供一种视觉伺服目标追踪控制方法,以解决传统视觉伺服控制器在时变、欠驱动、状态耦合的非线性系统中的适用性较差、无法对系统状态量和输入量进行约束的问题。
[0007]为了达到上述目的,本专利技术提供了一种鲁棒非线性模型预测控制的视觉伺服目标追踪控制方法,包括如下步骤:
[0008]一种鲁棒非线性模型预测控制的视觉伺服目标追踪控制方法,其特征在于,包括如下步骤:
[0009]S1,获取图像数据并提取图像特征,获取无人机姿态信息,分别得到图像动力学模
型和无人机动力学模型,将图像动力学模型和无人机动力学模型整合得到总体系统模型;
[0010]S2,设置高增益观测器,计算无人机运动速度,同时设置深度估计器对总体系统模型中特征深度进行估计;
[0011]S3,根据无人机目标追踪过程中无人机运动速度约束、特征状态约束和控制量约束条件,设置基于鲁棒非线性模型预测控制的无人机视觉伺服目标追踪控制器,控制器的控制量为无人机的线速度和角速度期望指令,经过控制器的指令转换模块转换成期望姿态和油门指令,控制无人机运动进行目标追踪,追踪过程满足预先构件的约束。
[0012]进一步地,其特征在于,S1中设定相机坐标系中的一某个三维特征点对应在二维图像平面坐标为根据单目相机投影模型与的关系如下:
[0013][0014]其中,λ为相机的焦距;
[0015]设定被追踪物体由n个特征点组成,其在虚拟图像平面上的坐标为设定被追踪物体由n个特征点组成,其在虚拟图像平面上的坐标为图像矩中心矩其中其中m
00
为零阶矩,m
10
、m
01
均为一阶矩;所选图像矩特征的具体表达式如下:
[0016][0017]其中,a=μ
20

02

[0018]得到图像动力模型:
[0019][0020]其中,为无人机在虚拟坐标系中的线速度,为偏航角速度,是特征点深度,q=[q
x
,q
y
,q
z
,q
ψ
]T
为图像矩特征;
[0021]无人机动力学模型为:
[0022][0023]其中,f=[f
x
,f
y
,f
z
]T
,f
x
,f
y
,f为虚拟平面中三个方向的加速度;
[0024]将图像动力学模型和无人机动力学模型整合到一起,得到总体系统模型:
[0025][0026]其中,
[0027]进一步地,深度估计器具体形式为:
[0028][0029]其中:
[0030]为特征点深度的估计值。
[0031]进一步地,高增益观测器的具体形式为:
[0032][0033]其中,为状态η的估计值,为特征点深度的估计值,y=[q1,q2,q3]T
为相机获取的图像特征,1≤i≤3,H
i
是观测器增益矩阵,ε是高增益观测器参数,是方程的两个正根,为观测器非线性项。
[0034]进一步地,观测器非线性项中
[0035][0036][0037][0038]进一步地,S3中在构建约束时,针对总体系统模型并考虑有界扰动:
[0039][0040]其中,表示噪声信号的上确界,是紧集,是二次连续可微的非线性函数;对应名义系统为:
[0041][0042]定义实际系统状态误差名义系统状态误差名义系统状态误差为名义系统的状态,控制器的代价函数如下:
[0043][0044]其中,矩阵Q、P、R是正定矩阵,T是预测步长,是根据名义系统在初始时刻为
t
k
时系统预测状态误差,在初始时刻为t
k
时预测控制输入,s∈[t
k
,t
k
+T];控制器进行优化写成如下形式:
[0045][0046][0047][0048][0049][0050][0051]其中,V
T
表示优化问题的目标函数,对上述问题求解得到J
*
(x(t
k
)),其中,是预测步长内的最优控制序列,是输入为最优控制时的最优状态轨迹,J
*
(x(t
k
))为代价函数最优值;是紧状态约束,通过下面两个式子求解:
[0052][0053][0054]其中代表集合和集合的庞特里亚金差,是根据噪声信息设置的状态边界。
[0055]本专利技术还提供了一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现如前所述的鲁棒非线性模型预测控制的视觉伺服目标追踪控制方法。
[0056]本专利技术的上述方案有如下的有益效果:
[0057]本专利技术提供的鲁本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种鲁棒非线性模型预测控制的视觉伺服目标追踪控制方法,其特征在于,包括如下步骤:S1,获取图像数据并提取图像特征,获取无人机姿态信息,分别得到图像动力学模型和无人机动力学模型,将图像动力学模型和无人机动力学模型整合得到总体系统模型;S2,设置高增益观测器,计算无人机运动速度,同时设置深度估计器对总体系统模型中特征深度进行估计;S3,根据无人机目标追踪过程中无人机运动速度约束、特征状态约束和控制量约束条件,设置基于鲁棒非线性模型预测控制的无人机视觉伺服目标追踪控制器,控制器的控制量为无人机的线速度和角速度期望指令,经过控制器的指令转换模块转换成期望姿态和油门指令,控制无人机运动进行目标追踪,追踪过程满足预先构件的约束。2.根据权利要求1所述的鲁棒非线性模型预测控制的视觉伺服目标追踪控制方法,其特征在于,S1中设定相机坐标系中的一某个三维特征点对应在二维图像平面坐标为根据单目相机投影模型与的关系如下:其中,λ为相机的焦距;设定被追踪物体由n个特征点组成,其在虚拟图像平面上的坐标为设定被追踪物体由n个特征点组成,其在虚拟图像平面上的坐标为图像矩中心矩其中其中m
00
为零阶矩,m
10
、m
01
均为一阶矩;所选图像矩特征的具体表达式如下:其中,a=μ
20

02
;得到图像动力模型:其中,为无人机在虚拟坐标系中的线速度,为偏航角速度,是特征点深度,q=[q
x
,q
y
,q
z
,q
ψ
]
T
为图像矩特征;无人机动力学模型为:
其中,f=[f
x
,f
y
,f
z
]
T
,f
x
,f
y
,f为虚拟平面中三个方向的加速度;将图像动力学模型和无人机动力学模型整合到一起,得到总体系统模型:其中,x=[x1,x2,x3,x4,x5,x6,x7]
T
=[q,V
ν
]
T
...

【专利技术属性】
技术研发人员:尹蒙蒙李繁飙彭浩曹承钰阳春华
申请(专利权)人:中南大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1