一种用户意图识别方法、装置、设备和存储介质制造方法及图纸

技术编号:27452337 阅读:21 留言:0更新日期:2021-02-25 04:40
本发明专利技术涉及人工智能领域,提供了一种用户意图识别方法、装置、设备和存储介质。方法包括:获取用户的多个注视点位置信息;获取物体的二维质心坐标信息;获取用户的抓握位置信息;通过滑动窗口技术、用户的多个注视点位置信息以及物体的二维质心坐标信息计算第一距离;通过滑动窗口技术、用户的多个注视点位置信息以及用户的抓握位置信息计算至少两个第二距离向量;通过滑动窗口技术计算用户的多个注视点位置信息的方差,得到第一方差;将第一距离、第二距离向量以及第一方差输入至训练好的分类器,得到分类结果;根据分类结果得到用户意图。提高了意图识别的准确率。提高了意图识别的准确率。提高了意图识别的准确率。

【技术实现步骤摘要】
一种用户意图识别方法、装置、设备和存储介质


[0001]本专利技术涉及人工智能领域,尤其涉及一种用户意图识别方法、装置、设备和存储介质。

技术介绍

[0002]抓握是人类日常生活中一个重要的动作,但是因为中风,肢体损伤,帕金森疾病而导致上肢功能受损的患者无法自己实现抓握动作。诸如外肢体,外骨骼,智能假肢等可穿戴机器人能够用来帮助这些患者实现抓握功能。识别抓握意图则是控制可穿戴机器人的前提。目前已有的识别人类抓握意图的方法可以分为三类:基于肌电信号(EEG)的方法,基于脑电的方法(EEG)和基于肢体动作的方法。但是对于已经失去肢体运动能力的患者,他们的意图无法通过这种方式进行测量。

技术实现思路

[0003]本专利技术要解决的技术问题的用户意图预测不准确的问题,是提供一种用户意图识别方法,包括:
[0004]获取用户的多个注视点位置信息;
[0005]获取物体的二维质心坐标信息;
[0006]获取用户的抓握位置信息;
[0007]通过滑动窗口技术、所述用户的多个注视点位置信息以及所述物体的二维质心坐标信息计算第一距离;
[0008]通过滑动窗口技术、所述用户的多个注视点位置信息以及所述用户的抓握位置信息计算至少两个第二距离向量;
[0009]通过滑动窗口技术计算所述用户的多个注视点位置信息的方差,得到第一方差;
[0010]将所述第一距离、所述第二距离向量以及所述第一方差输入至训练好的分类器,得到分类结果;
[0011]根据所述分类结果得到用户意图。
[0012]在一些可能的设计中,所述获取用户的多个注视点位置信息,包括:
[0013]通过眼动仪获取用户的多张输入图像;
[0014]通过F(t
i
)=(f
x
(t
i
),f
y
(t
i
))获取用户的多个注视点位置信息,其中t
i
表示对应第i帧所述注视图像的时刻,f
x
(t
i
)表示在第i帧所述注视图像的二维注视横坐标,f
y
(t
i
)表示在第i帧所述注视图像的二维注视纵坐标,F(t
i
)表示所述注视点位置信息。
[0015]在一些可能的设计中,所述获取物体的二维质心坐标信息,包括:
[0016]将所述多张输入图像输入至训练好的神经网络模型,得到多个像素坐标;
[0017]通过计算所述物体的二维质心坐标信息,其中p
ij
为第i帧所述注视图像的第j个目标的像素值,x
ij
为第i帧所述注视图像的第j个目标的所述
像素坐标的横坐标,y
ij
为第i帧所述注视图像的第j个目标的像素坐标的纵坐标,x,y为所述物体的二维质心坐标信息。
[0018]在一些可能的设计中,所述获取用户的抓握位置信息,包括:
[0019]获取数据库存储的抓握数据;
[0020]通过统计分布获取食指抓握点坐标g1
xj
(t
i
),g1
yj
(t
i
);
[0021]通过统计分布获取拇指抓握点坐标g2
xj
(t
i
),g2
yj
(t
i
)。
[0022]在一些可能的设计中,述通过滑动窗口技术、所述用户的多个注视点位置信息以及所述物体的二维质心坐标信息计算第一距离,包括:
[0023]通过计算所述第一距离,其中所述n为所述输入图像的数量,ADF2C为所述第一距离。
[0024]在一些可能的设计中,所述通过滑动窗口技术、所述用户的多个注视点位置信息以及所述用户的抓握位置信息计算至少两个第二距离向量,包括:
[0025]通过计算食指距离,其中ADF2I为所述食指距离;
[0026]通过计算拇指距离,其中ADF2T为所述拇指距离;
[0027]将所述食指距离以及拇指距离组合成第二距离向量。
[0028]在一些可能的设计中,所述通过滑动窗口技术计算所述用户的多个注视点位置信息的方差,得到第一方差,包括
[0029]通过计算几何中心,其中O为几何中心;
[0030]通过计算所述多个注视中心与所述几何中心的欧拉距离,其中d
i
表示第i个注视点到注视中心O的欧拉距离;
[0031]通过计算所述欧拉距离的平均值,其中所述M为距离的均值;
[0032]通过计算所述第一方差,其中VAR为所述第一方差。
[0033]第二方面,本专利技术提供一种用户意图识别装置,具有实现对应于上述第一方面提供的用户意图识别平台的方法的功能。所述功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。硬件或软件包括一个或多个与上述功能相对应的模块,所述模块可以是软件和/或硬件。
[0034]所述用户意图识别装置包括:
[0035]输入输出模块,用于获取用户的多个注视点位置信息;获取物体的二维质心坐标信息;获取用户的抓握位置信息;
[0036]处理模块,用于通过滑动窗口技术、所述用户的多个注视点位置信息以及所述物体的二维质心坐标信息计算第一距离;通过滑动窗口技术、所述用户的多个注视点位置信
息以及所述用户的抓握位置信息计算至少两个第二距离向量;通过滑动窗口技术计算所述用户的多个注视点位置信息的方差,得到第一方差;将所述第一距离、所述第二距离向量以及所述第一方差输入至训练好的分类器,得到分类结果;根据所述分类结果得到用户意图。
[0037]在一些可能的设计中,所述处理模块还用于:
[0038]通过眼动仪获取用户的多张输入图像;
[0039]通过F(t
i
)=(f
x
(t
i
),f
y
(t
i
))获取用户的多个注视点位置信息,其中t
i
表示对应第i帧所述注视图像的时刻,f
x
(t
i
)表示在第i帧所述注视图像的二维注视横坐标,f
y
(t
i
)表示在第i帧所述注视图像的二维注视纵坐标,F(t
i
)表示所述注视点位置信息。
[0040]在一些可能的设计中,所述处理模块还用于:
[0041]将所述多张输入图像输入至训练好的神经网络模型,得到多个像素坐标;
[0042]通过计算所述物体的二维质心坐标信息,其中p
ij
为第i帧所述注视图像的第j个目标的像素值,x
ij
为第i帧所述注视图像的第j个目标的所述像素坐标的横坐标,y
ij
为第i帧所述注视图像的第j个目标的像素坐标的纵坐标,x,y为所述物体的二维质心坐标信息。
...

【技术保护点】

【技术特征摘要】
1.一种用户意图识别方法,其特征在于,所述方法包括:获取用户的多个注视点位置信息;获取物体的二维质心坐标信息;获取用户的抓握位置信息;通过滑动窗口技术、所述用户的多个注视点位置信息以及所述物体的二维质心坐标信息计算第一距离;通过滑动窗口技术、所述用户的多个注视点位置信息以及所述用户的抓握位置信息计算至少两个第二距离向量;通过滑动窗口技术计算所述用户的多个注视点位置信息的方差,得到第一方差;将所述第一距离、所述第二距离向量以及所述第一方差输入至训练好的分类器,得到分类结果;根据所述分类结果得到用户意图。2.根据权利要求1所述的方法,其特征在于,所述获取用户的多个注视点位置信息,包括:通过眼动仪获取用户的多张输入图像;通过F(t
i
)=(f
x
(t
i
),f
y
(t
i
))获取用户的多个注视点位置信息,其中t
i
表示对应第i帧所述注视图像的时刻,f
x
(t
i
)表示在第i帧所述注视图像的二维注视横坐标,f
y
(t
i
)表示在第i帧所述注视图像的二维注视纵坐标,F(t
i
)表示所述注视点位置信息。3.根据权利要求2所述的方法,其特征在于,所述获取物体的二维质心坐标信息,包括:将所述多张输入图像输入至训练好的神经网络模型,得到多个像素坐标;通过计算所述物体的二维质心坐标信息,其中p
ij
为第i帧所述注视图像的第j个目标的像素值,x
ij
为第i帧所述注视图像的第j个目标的所述像素坐标的横坐标,y
ij
为第i帧所述注视图像的第j个目标的像素坐标的纵坐标,x,y为所述物体的二维质心坐标信息。4.根据权利要求3所述的方法,其特征在于,所述获取用户的抓握位置信息,包括:获取数据库存储的抓握数据;通过统计分布获取食指抓握点坐标g1
xj
(t
i
),g1
yj
(t
i
);通过统计分布获取...

【专利技术属性】
技术研发人员:黄剑杨博熊蔡华李小龙茹宏格晏箐阳
申请(专利权)人:华中科技大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1