一种语音机器人的情绪表情互动方法和系统技术方案

技术编号:38368777 阅读:10 留言:0更新日期:2023-08-05 17:33
本发明专利技术公开了一种语音机器人的情绪表情互动方法,其包括以下步骤:步骤S100:捕捉音频信息;步骤S200:识别音频信息的情绪类型;步骤S300:根据预设的语音机器人的人设类型,输出与音频信息的情绪类型相对应的回复语信息;步骤S400:识别回复语信息的情绪类型,并输出与回复语信息的情绪类型相对应的表情动作指令信息;步骤S500:根据表情动作指令信息执行表情动作。本发明专利技术实现了语音机器人与用户情绪进行多维度联动,给用户带来了车内有知己的良好体验。体验。体验。

【技术实现步骤摘要】
一种语音机器人的情绪表情互动方法和系统


[0001]本专利技术涉及车联网
,尤其涉及一种语音机器人的情绪表情互动方法和系统。

技术介绍

[0002]目前搭载车辆网的车辆可以通过蓝牙连接更多智能硬件设备,比如后装车载语音机器人等;但目前的后装车载语音机器人无法识别用户的情绪变化,无法根据用户的情绪变化进行联动来调节用户的情绪,也不能根据用户喜欢的人设进行预设回复,而都是统一的回复语,也不会根据人设类型来联动不同的表情,给用户带来死板不智能、没有情绪的不良体验。

技术实现思路

[0003]本专利技术的主要目的在于针对现有技术中车载语音机器人无法识别用户情绪、无法联动表情变化的缺点,提供一种语音机器人的情绪表情互动方法和系统。
[0004]为实现上述目的,本专利技术语音机器人的情绪表情互动方法和系统,包括以下步骤:
[0005]步骤S100:捕捉音频信息;
[0006]步骤S200:识别音频信息的情绪类型;
[0007]步骤S300:根据预设的语音机器人的人设类型,输出与音频信息的情绪类型相对应的回复语信息;
[0008]步骤S400:识别回复语信息的情绪类型,并输出与回复语信息的情绪类型相对应的表情动作指令信息;
[0009]步骤S500:根据表情动作指令信息执行表情动作。
[0010]优先地,所述步骤S200包括:将音频信息转换为文本信息,通过情绪识别模型对文本信息进行情绪识别,输出音频信息的情绪类型。
[0011]优先地,所述步骤S300包括:读取语音机器人中预设的人设类型信息,根据人设类型选择回复语数据库中与人设类型对应的分库进行查询,输出与音频信息的情绪类型对应的回复语文本信息。
[0012]优先地,所述步骤S400包括:通过情绪识别模型对回复语文本信息进行情绪识别,输出回复语文本信息的情绪类型,将回复语文本信息的情绪类型与表情动作指令数据库中的指令标题进行比对,输出与回复语文本信息的情绪类型匹配的指令标题所在的区块中存储的表情动作指令信息。
[0013]优先地,所述步骤S300还包括:将回复语文本信息转换为回复语音频信息,传输至语音机器人对回复语音频信息进行语音播报。
[0014]此外,为实现上述目的,本专利技术还提供一种语音机器人的情绪表情互动系统,包括语音机器人,用于捕捉音频信息、播报回复语音频信息,及根据表情动作指令信息执行表情动作;远端服务器,用于识别音频信息和回复语文本信息的情绪类型,及根据预设的语音机
器人的人设类型,输出与音频信息的情绪类型相对应的回复语文本信息和回复语音频信息,输出与回复语文本信息的情绪类型相对应的表情动作指令信息。
[0015]优选地,所述远端服务器包括云端语音平台,所述云端语音平台将音频信息转换为文本信息,将回复语文本信息转换为回复语音频信息。
[0016]优选地,所述远端服务器还包括情绪识别模块,所述情绪识别模块通过存储在内部的情绪识别模型对回复语文本信息和在云端语音平台中转换后的文本信息进行情绪类型识别并输出。
[0017]优选地,所述远端服务器还包括回复语查询模块,所述回复语查询模块读取所述语音机器人预设的人设类型信息,根据人设类型信息选择回复语数据库中与人设类型对应的分库进行查询,输出音频信息对应情绪类型的回复语文本信息。
[0018]优选地,所述远端服务器还包括比对模块,所述比对模块将回复语文本信息的情绪类型与表情动作指令数据库中的指令标题进行比对,输出与情绪类型匹配的指令标题所在的区块中存储的表情动作指令信息。
[0019]本专利技术提供的一种语音机器人的情绪表情互动方法,具有以下有益效果:捕捉音频信息,通过将用户发出的情绪声音进行收录,实现用户与机器人的交互;识别音频信息的情绪类型,通过情绪识别模型对用户情绪进行识别分析,为回复语提供算法依据;根据预设的语音机器人的人设类型,输出与音频信息的情绪类型相对应的回复语信息;通过语音机器人人设和情绪的定位,智能给出针对该种类型人设和情绪的回复语;识别回复语信息的情绪类型,并输出与回复语信息的情绪类型相对应的表情动作指令信息,根据回复语的情绪依据输出对应的表情指令,此表情与回复语播报配合,给用户带来多重体验,根据表情动作指令信息执行表情动作,智能设备将表情动作指令以机器表情动作的形式呈现给用户,用户看到智能设备知道自己的情绪或与自己的情绪同步,就会有找到知己的良好体验。
附图说明
[0020]为了更清楚地说明本专利技术实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本专利技术的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图:
[0021]图1所示为本专利技术一个实施例提供的一种语音机器人的情绪表情互动方法的流程示意图。
[0022]图2所示为本专利技术一个实施例提供的一种语音机器人的情绪表情互动系统的系统模块结构示意图。
具体实施方式
[0023]为了便于理解本专利技术,下面将参照相关附图对本专利技术进行更全面的描述。附图中给出了本专利技术的典型实施例。但是,本专利技术可以以许多不同的形式来实现,并不限于本文所描述的实施例。相反地,提供这些实施例的目的是使对本专利技术的公开内容更加透彻全面。
[0024]除非另有定义,本文所使用的所有的技术和科学术语与属于本专利技术的
的技术人员通常理解的含义相同。本文中在本专利技术的说明书中所使用的术语只是为了描述具
体的实施例的目的,不是旨在于限制本专利技术。
[0025]本专利技术总的思路是:针对现有技术中车内语音机器人无法与识别用户情绪、无法联动表情变化的缺点,提供一种语音机器人的情绪表情互动方法和系统。本专利技术通过将用户发出的情绪声音进行收录,实现用户与机器人的交互;识别音频信息的情绪类型,通过情绪识别模型对用户情绪进行识别分析,为回复语提供算法依据;根据预设的语音机器人的人设类型,输出与音频信息的情绪类型相对应的回复语信息;通过语音机器人人设和情绪的定位,智能给出针对该种类型人设和情绪的回复语;识别回复语信息的情绪类型,并输出与回复语信息的情绪类型相对应的表情动作指令信息,根据回复语的情绪依据输出对应的表情指令,此表情与回复语播报配合,给用户带来多重体验,根据表情动作指令信息执行表情动作,智能设备将表情动作指令以机器表情动作的形式呈现给用户,用户看到智能设备知道自己的情绪或与自己的情绪同步,就会有找到知己的良好体验。
[0026]为了更好的理解上述技术方案,下面将结合说明书附图以及具体的实施方式对上述技术方案进行详细的说明,应当理解本专利技术实施例以及实施例中的具体特征是对本申请技术方案的详细的说明,而不是对本申请技术方案的限定,在不冲突的情况下,本专利技术实施例以及实施例中的技术特征可以相互组合。参照图1,图1所示为本专利技术一个实施例提供的一种语音机器人的情绪表情互动方法的流程示意图,在本实施例中,一种语音机器人的情绪表情本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种语音机器人的情绪表情互动方法,其特征在于,包括以下步骤:步骤S100:捕捉音频信息;步骤S200:识别音频信息的情绪类型;步骤S300:根据预设的语音机器人的人设类型,输出与音频信息的情绪类型相对应的回复语信息;步骤S400:识别回复语信息的情绪类型,并输出与回复语信息的情绪类型相对应的表情动作指令信息;步骤S500:根据表情动作指令信息执行表情动作。2.如权利要求1所述的语音机器人的情绪表情互动方法,其特征在于,所述步骤S200包括:将音频信息转换为文本信息,通过情绪识别模型对文本信息进行情绪识别,输出音频信息的情绪类型。3.如权利要求2所述的语音机器人的情绪表情互动方法,其特征在于,所述步骤S300包括:读取语音机器人中预设的人设类型信息,根据人设类型选择回复语数据库中与人设类型对应的分库进行查询,输出与音频信息的情绪类型对应的回复语文本信息。4.如权利要求3所述的语音机器人的情绪表情互动方法,其特征在于,所述步骤S400包括:通过情绪识别模型对回复语文本信息进行情绪识别,输出回复语文本信息的情绪类型,将回复语文本信息的情绪类型与表情动作指令数据库中的指令标题进行比对,输出与回复语文本信息的情绪类型匹配的指令标题所在的区块中存储的表情动作指令信息。5.如权利要求3所述的语音机器人的情绪表情互动方法,其特征在于,所述步骤S300还包括:将回复语文本信息转换为回复语音频信息,传输至语音机器人对回复语音频信息进行语音播报。6.一种语音...

【专利技术属性】
技术研发人员:钟浩玲
申请(专利权)人:深圳联友科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1