基于虚拟人行为标准的交互方法及系统技术方案

技术编号:20221315 阅读:56 留言:0更新日期:2019-01-28 19:58
本发明专利技术提供一种基于虚拟人行为标准的交互方法,虚拟人通过智能设备展示,在处于交互状态时启动语音、情感、视觉以及感知能力,其包含:获取多模态交互数据,对多模态交互数据进行解析,得到用户的交互意图;根据交互意图生成多模态回应数据以及与多模态回应数据匹配的虚拟人情绪表达数据,其中,虚拟人情绪表达数据通过虚拟人的面部表情以及肢体动作表现虚拟人当前的情绪;配合虚拟人情绪表达数据输出多模态回应数据。本发明专利技术提供了一种虚拟人,能够与用户进行多模态的交互。并且,本发明专利技术还能够在输出多模态回应数据时配合输出虚拟人情绪表达数据,通过虚拟人情绪表达数据表达当前虚拟人的情绪,使得用户享受拟人的交互体验。

【技术实现步骤摘要】
基于虚拟人行为标准的交互方法及系统
本专利技术涉及人工智能领域,具体地说,涉及一种基于虚拟人行为标准的交互方法及系统。
技术介绍
机器人多模态交互系统的开发致力于模仿人类对话,以试图在上下文之间模仿人类之间的交互。但是,目前来说,对于虚拟人相关的机器人多模态交互系统的开发还不太完善,尚未出现进行多模态交互的虚拟人,更为重要的是,尚无基于虚拟人自身行为标准进行交互的交互产品。因此,本专利技术提供了一种基于虚拟人行为标准的交互方法及系统。
技术实现思路
为解决上述问题,本专利技术提供了一种基于虚拟人行为标准的交互方法,所述虚拟人通过智能设备展示,在处于交互状态时启动语音、情感、视觉以及感知能力,所述方法包含以下步骤:获取多模态交互数据,对所述多模态交互数据进行解析,得到用户的交互意图;根据所述交互意图生成多模态回应数据以及与所述多模态回应数据匹配的虚拟人情绪表达数据,其中,所述虚拟人情绪表达数据通过虚拟人的面部表情以及肢体动作表现虚拟人当前的情绪;配合所述虚拟人情绪表达数据输出所述多模态回应数据。根据本专利技术的一个实施例,根据所述交互意图生成多模态回应数据以及与所述多模态回应数据匹配的虚拟本文档来自技高网...

【技术保护点】
1.一种基于虚拟人行为标准的交互方法,其特征在于,所述虚拟人通过智能设备展示,在处于交互状态时启动语音、情感、视觉以及感知能力,所述方法包含以下步骤:获取多模态交互数据,对所述多模态交互数据进行解析,得到用户的交互意图;根据所述交互意图生成多模态回应数据以及与所述多模态回应数据匹配的虚拟人情绪表达数据,其中,所述虚拟人情绪表达数据通过虚拟人的面部表情以及肢体动作表现虚拟人当前的情绪;配合所述虚拟人情绪表达数据输出所述多模态回应数据。

【技术特征摘要】
1.一种基于虚拟人行为标准的交互方法,其特征在于,所述虚拟人通过智能设备展示,在处于交互状态时启动语音、情感、视觉以及感知能力,所述方法包含以下步骤:获取多模态交互数据,对所述多模态交互数据进行解析,得到用户的交互意图;根据所述交互意图生成多模态回应数据以及与所述多模态回应数据匹配的虚拟人情绪表达数据,其中,所述虚拟人情绪表达数据通过虚拟人的面部表情以及肢体动作表现虚拟人当前的情绪;配合所述虚拟人情绪表达数据输出所述多模态回应数据。2.如权利要求1所述的方法,其特征在于,根据所述交互意图生成多模态回应数据以及与所述多模态回应数据匹配的虚拟人情绪表达数据的步骤中,还包含以下步骤:根据所述交互意图以及交互的上下文环境确定当前虚拟人的情绪参数;依据所述情绪参数生成与所述多模态回应数据匹配的所述虚拟人情绪表达数据。3.如权利要求2所述的方法,其特征在于,所述情绪参数包含积极情绪参数、生气情绪参数以及恐惧情绪参数。4.如权利要求2所述的方法,其特征在于,依据所述情绪参数生成与所述多模态回应数据匹配的所述虚拟人情绪表达数据的步骤中,包含以下步骤:生成与所述情绪参数匹配的虚拟人面部表情数据以及虚拟人肢体动作数据,其中,所述虚拟人面部表情数据以及所述虚拟人肢体动作数据属于所述虚拟人情绪表达数据。5.如权利要求4所述的方法,其特征在于,所述肢体动作数据包含头部动作数据、手部动作数据、四肢动作数据以及躯干动作数据中的任一...

【专利技术属性】
技术研发人员:尚小维李晓丹俞志晨
申请(专利权)人:北京光年无限科技有限公司
类型:发明
国别省市:北京,11

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1