【技术实现步骤摘要】
一种基于机器学习的交互意图识别方法
[0001]本专利技术涉及人机交互
,特别的涉及一种基于机器学习的交互意图识别方法。
技术介绍
[0002]仿人服务机器人现已在社会中各领域扮演着重要角色,而其想要融入于人类的社会生活中,并和人们进行智能自然交互,需具备类人的社会环境感知能力,即学习、理解和推理多模态信息的能力,识别出社交环境下人类的交互意图,并能进行自主行为决策。人
‑
机器人交互系统中交互意图的检测和识别有助于提高仿人机器人与人交互的自然性与智能性。交互意图识别即判断视线范围内人员是否有主动交流的意愿并推测出该人员的意愿强度。
[0003]视觉信息是人类获取外部信息的主要途径,人类大脑处理信息的80%以上来自视觉系统。视觉信息的研究在人机交互领域非常流行,之前已有研究分析了人类的视觉特征信息如情绪、面部表情、肢体动作等与社会交互的关联。因此,如何利用视觉信息让仿人服务机器人更好的理解人的交互意图,并与人进行自然交互成为亟待解决的问题。
技术实现思路
[0004]针对上述现有技术的不足,本专利技术所要解决的技术问题是:如何提供一种能够利用视觉信息识别交互意图,有利于提高仿人机器人与人交互的自然性与智能性的基于机器学习的交互意图识别方法。
[0005]为了解决上述技术问题,本专利技术采用了如下的技术方案:
[0006]一种基于机器学习的交互意图识别方法,其特征在于,先通过摄像头采集图像数据,再采用基于机器学习的交互意图分类模型对图像数据中的潜在交互对象进 ...
【技术保护点】
【技术特征摘要】
1.一种基于机器学习的交互意图识别方法,其特征在于,先通过摄像头采集图像数据,再采用基于机器学习的交互意图分类模型对图像数据中的潜在交互对象进行交互意图识别;所述交互意图分类模型的训练步骤如下:S1、通过摄像头采集图像数据,并提取图像数据中潜在交互对象的视线、面部朝向、交互距离以及面部表情的特征信息,对特征信息进行降维处理得到特征集;S2、将交互意图按照强度逐级分类,并按照分类给特征集样本增加标签;S3、重复步骤S1和S2,获取包含所述特征集的数据集;S4、将数据集分为训练集和测试集,基于机器学习方法,利用训练集训练交互意图分类模型;训练后,利用测试集对训练后的交互意图分类模型进行测试,完成交互意图分类模型的训练。2.如权利要求1所述的基于机器学习的交互意图识别方法,其特征在于,所述特征集包含的视觉特征数据{R
g
,R
p
,D,E},R
g
为视线注意力偏移系数,R
p
为面部朝向注意力偏移系数,D为社交距离,E为表情交互意图量化参考值。3.如权利要求2所述的基于机器学习的交互意图识别方法,其特征在于,所述视线注意力偏移系数R
g
为交互对象的视线落点与摄像头竖直平面中心的偏移距离,并满足下式:式中,(p
xl
,p
yl
,p
zl
)、(p
xr
,p
yr
,p
zr
)别为相机坐标系下潜在交互对象的左右眼瞳孔坐标,V
GL
=[v
xl v
yl v
zl
]和V
GR
=[v
xr v
yr v
zr
]分别为潜在交互对象的左眼视线和右眼视线的方向向量。4.如权利要求2所述的基于机器学习的交互意图识别方法,其特征在于,所述面部朝向的注意力偏移系数R
p
为交互对象的面部朝向落点与摄像头竖直平面中心的偏移距离,并满足下式:式中,(f
x
,f
y
,f
z
)为潜在交互对象在相机坐标系下的面部中心坐标,[α,β,γ]为面部朝向的方位角。5.如权利要求2所述的基于机器学习的交互意图识别方法,其特征在于,所述社交距离D满足下式:式中,(d
x
,d
y
,d
z
)相机坐标系下潜在目标对象人脸中心点的坐标。6.如权利要求2所述的基于机器学习的交互意图识别方法,其特征在于,所述面部表情包括高兴、愤怒、自然、惊讶、伤心、厌恶和恐惧,并根据交互意图划分为接近型、中立型和回避型,所述表情交互意图量化参考值E为各面部表情所对应的交互意图的量化值,并满足下表:
7.如权利要求2所述的基于机器学习的交互意图识别方法,其特征在于,所述步骤S4中,还包括如下步骤:对训练后的交互意图分类模型进行...
【专利技术属性】
技术研发人员:何苗,毕健,胡方超,丁军,王玉金,
申请(专利权)人:重庆理工大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。