当前位置: 首页 > 专利查询>兰州大学专利>正文

仿人手交互控制方法和装置、电子设备及存储介质制造方法及图纸

技术编号:39126529 阅读:10 留言:0更新日期:2023-10-23 14:48
本申请实施例提供了一种仿人手交互控制方法和装置、电子设备及存储介质,属于自动控制领域。该方法包括:获取仿人手执行动作技能基元时的初始状态信息、原始控制指令和作用力参数,再根据初始状态信息、作用力参数、原始控制指令和原始交互控制模型构建目标控制优化模型,然后对目标控制优化模型进行迭代求解得到仿人手的目标控制指令和当前状态信息,最后根据目标操控指令操控仿人手执行动作技能基元对应的操作,以使仿人手的所述初始状态信息切换为所述当前状态信息。因此,本申请可以通过仿人手的初始状态信息和作用力参数构建目标控制优化模型,以此模型求解得到目标控制指令对仿人手进行控制,使得仿人手在交互环境下的操作更为精确。的操作更为精确。的操作更为精确。

【技术实现步骤摘要】
仿人手交互控制方法和装置、电子设备及存储介质


[0001]本申请涉及自动控制领域,尤其涉及一种仿人手交互控制方法和装置、电子设备及存储介质。

技术介绍

[0002]目前,仿人手因其具备多自由度与多关节的特性,能够灵活抓取重量不一、各种形状的物体,成为航空航天、智能制造等领域的关注热点,但其在运动多约束且环境互动性强的应用场景下仍存在优化控制困难的问题。如执行交互动作时,受相互作用力影响,仿人手的运动空间实时改变,产生相应的运动学约束。因此,如何提高仿人手在多约束的工作环境下的互动性,并实时优化仿人手的控制策略,成为了亟待解决的技术问题。

技术实现思路

[0003]本申请实施例的主要目的在于提出一种仿人手交互控制方法和装置、电子设备及存储介质,旨在提高仿人手在多约束的工作环境下的互动性,并实时优化仿人手的控制策略,提高仿人手的控制准确度。
[0004]为实现上述目的,本申请实施例的第一方面提出了一种仿人手交互控制方法,所述方法包括:
[0005]获取仿人手执行每一动作技能基元时的初始状态信息、原始控制指令和作用力参数;其中,所述动作技能基元由预设的动作期望轨迹按照预设的常用动作技能基元组分解所得;
[0006]根据所述初始状态信息、所述作用力参数和预设的原始预测交互控制模型进行模型构建,得到每一所述动作技能基元的目标控制优化模型;其中,所述原始预测交互控制模型为线性控制优化模型;
[0007]对所述目标控制优化模型进行迭代求解处理,得到所述仿人手执行每一所述动作技能基元时的目标控制指令和当前状态信息;
[0008]根据所述目标操控指令操控所述仿人手执行每一所述动作技能基元对应的操作,以使所述仿人手的所述初始状态信息切换为所述当前状态信息。
[0009]根据本专利技术的一些实施例,所述根据所述初始状态信息、所述作用力参数和预设的原始预测交互控制模型进行模型构建,得到每一所述动作技能基元的目标控制优化模型之前,所述方法还包括构建所述原始预测交互控制模型,具体包括:
[0010]获取仿人手的位置信息、环境作用力信息和控制信息;
[0011]根据所述位置信息、所述环境作用力信息、所述控制信息和预设的加权矩阵集构建原始预测交互控制模型。
[0012]根据本专利技术的一些实施例,所述加权矩阵集包括:位置信息加权矩阵、交互信息加权矩阵、控制信息加权矩阵,所述根据所述位置信息、所述环境作用力信息、所述控制信息和预设的加权矩阵集构建原始预测交互控制模型,具体包括:
[0013]将所述环境作用力信息带入预设的弹簧模型进行求解,得到环境交互信息;
[0014]根据所述环境交互信息和交互信息加权矩阵生成交互信息状态量;
[0015]根据所述位置信息、位置信息加权矩阵和预设的仿人手控制优化模型生成位置信息状态量;
[0016]根据所述控制信息、控制信息加权矩阵和预设的仿人手控制优化模型生成控制信息状态量;
[0017]根据所述交互信息状态量、所述位置信息状态量和所述控制信息状态量构建原始预测交互控制模型,所述原始预测交互控制模型的表达式为:
[0018][0019]其中q表示仿人手的位置状态信息,Q
q
是位置信息权重矩阵;F
ext
表示仿人手与环境的交互信息,Q
F
是交互信息权重矩阵;u表示控制输入,R是控制输入信息权重矩阵。
[0020]根据本专利技术的一些实施例,在所述根据所述位置信息、位置信息加权矩阵和预设的仿人手控制优化模型生成位置信息状态量之前,所述方法还包括:
[0021]构建仿人手控制优化模型,具体包括:
[0022]基于预设的koopman算法对预设的非线性仿人手控制优化模型进行线性升维,得到线性仿人手控制优化模型;其中,所述仿人手控制优化模型的表达式为:
[0023][0024]s.t.z
k+1
=Az
k
+Bu
k
[0025][0026]其中,z表示仿人手所有状态的升维状态信息,u表示所述控制输入信息,Q、R分别是对应的加权矩阵。
[0027]根据本专利技术的一些实施例,在所述根据所述位置信息、所述环境作用力信息、所述控制信息和预设的加权矩阵集构建原始预测交互控制模型之前,所述方法还包括:
[0028]预设加权矩阵集,具体包括:
[0029]获取每一动作技能基元的特定要求信息;
[0030]根据所述特定要求信息从候选动作技能基元权重中筛选出每一动作技能基元的权重信息;
[0031]根据所述位置信息、所述环境作用力信息和所述控制信息对所述权重信息进行筛选处理,得到所述加权矩阵集。
[0032]根据本专利技术的一些实施例,在所述获取仿人手执行每一动作技能基元时的初始状态信息、原始控制指令和作用力参数之后,所述方法还包括:
[0033]获取所述作用力参数的状态信息;
[0034]若所述状态信息表征为所述作用力参数不存在,根据所述初始状态信息、所述原始控制指令和预设的原始预测交互控制模型进行模型构建,得到每一所述动作技能基元的选定预测交互控制模型;
[0035]对所述选定预测交互控制模型进行迭代求解处理,得到仿人手执行每一所述动作
技能基元时的当前控制指令和更新状态信息;
[0036]根据所述当前控制指令操控所述仿人手执行所述动作技能基元对应的操作,以使所述仿人手执行所述动作技能基元时的所述初始状态信息切换为所述当前状态信息。
[0037]根据本专利技术的一些实施例,所述方法还包括:
[0038]根据预设的期望动作更新每一所述动作技能基元的目标控制优化模型,并根据所述期望动作对更新的所述目标控制优化模型进行迭代求解,得到更新控制指令;
[0039]根据所述更新控制指令对每一所述动作技能基元的所述当前状态信息进行更新。
[0040]为实现上述目的,本申请实施例的第二方面提出了一种仿人手交互控制装置,所述装置包括:
[0041]获取模块,用于获取仿人手执行每一动作技能基元时的初始状态信息、原始控制指令和作用力参数;
[0042]模型构建模块,用于根据所述初始状态信息、所述作用力参数和预设的原始预测交互控制模型进行模型构建,得到每一所述动作技能基元的目标控制优化模型;其中,所述原始预测交互控制模型为线性控制优化模型;
[0043]模型求解模块,用于对所述目标控制优化模型进行迭代求解处理,得到仿人手执行每一所述动作技能基元时的目标控制指令和当前状态信息;
[0044]控制模块,用于根据所述目标操控指令操控每一所述动作技能基元执行对应的操作,以使所述动作技能基元的所述初始状态信息切换为当前状态信息。
[0045]为实现上述目的,本申请实施例的第三方面提出了一种电子设备,所述电子设备包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述第一本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种仿人手交互控制方法,其特征在于,所述方法包括:获取仿人手执行每一动作技能基元时的初始状态信息、原始控制指令和作用力参数;其中,所述动作技能基元由预设的动作期望轨迹按照预设的常用动作技能基元组分解所得;根据所述初始状态信息、所述作用力参数和预设的原始预测交互控制模型进行模型构建,得到每一所述动作技能基元的目标控制优化模型;其中,所述原始预测交互控制模型为线性控制优化模型;对所述目标控制优化模型进行迭代求解处理,得到所述仿人手执行每一所述动作技能基元时的目标控制指令和当前状态信息;根据所述目标操控指令操控所述仿人手执行每一所述动作技能基元对应的操作,以使所述仿人手的所述初始状态信息切换为所述当前状态信息。2.根据权利要求1所述的方法,其特征在于,所述根据所述初始状态信息、所述作用力参数和预设的原始预测交互控制模型进行模型构建,得到每一所述动作技能基元的目标控制优化模型之前,所述方法还包括构建所述原始预测交互控制模型,具体包括:获取仿人手的位置信息、环境作用力信息和控制信息;根据所述位置信息、所述环境作用力信息、所述控制信息和预设的加权矩阵集构建原始预测交互控制模型。3.根据权利要求2所述的方法,其特征在于,所述加权矩阵集包括:位置信息加权矩阵、交互信息加权矩阵、控制信息加权矩阵,所述根据所述位置信息、所述环境作用力信息、所述控制信息和预设的加权矩阵集构建原始预测交互控制模型,具体包括:将所述环境作用力信息带入预设的弹簧模型进行求解,得到环境交互信息;根据所述环境交互信息和交互信息加权矩阵生成交互信息状态量;根据所述位置信息、位置信息加权矩阵和预设的仿人手控制优化模型生成位置信息状态量;根据所述控制信息、控制信息加权矩阵和预设的仿人手控制优化模型生成控制信息状态量;根据所述交互信息状态量、所述位置信息状态量和所述控制信息状态量构建原始预测交互控制模型,所述原始预测交互控制模型的表达式为:其中q表示仿人手的位置状态信息,Q
q
是位置信息权重矩阵;F
ext
表示仿人手与环境的交互信息,Q
F
是交互信息权重矩阵;u表示控制输入,R是控制输入信息权重矩阵。4.根据权利要求3所述的方法,其特征在于,在所述根据所述位置信息、位置信息加权矩阵和预设的仿人手控制优化模型生成位置信息状态量之前,所述方法还包括:构建仿人手控制优化模型,具体包括:基于预设的koopman算法对预设的非线性仿人手控制优化模型进行线性升维,得到线性仿人手控制优化模型;其中,所述仿人手控制优化模型的表达式为:
其中,z表示仿人手所有状态的升维状态信息,u表示所述控制输入信息,Q、R分别是对应的加权矩阵。5.根...

【专利技术属性】
技术研发人员:阎石赵东东廖梓轶周兴文
申请(专利权)人:兰州大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1