语音交互的方法、装置、电子设备及存储介质制造方法及图纸

技术编号:27105071 阅读:33 留言:0更新日期:2021-01-25 18:53
本发明专利技术实施例涉及计算机技术领域,公开了一种语音交互的方法、装置、电子设备及存储介质。本发明专利技术中语音交互的方法,包括:获取用户的音频数据,解析用户的用户情绪信息;根据用户情绪信息,获取与用户情绪信息匹配的交互合成音;根据获取的交互合成音,与用户进行语音交互。采用本实施例中的方法,使得可以采用与用户情绪信息匹配的合成音进行语音交互,提高电子设备的拟人化功能。子设备的拟人化功能。子设备的拟人化功能。

【技术实现步骤摘要】
语音交互的方法、装置、电子设备及存储介质


[0001]本专利技术实施例涉计算机
,特别涉及一种语音交互的方法、装置、电子设备及存储介质。

技术介绍

[0002]语音识别技术应用于各种智能设备上,例如,智能音箱、智能空调等。智能设备通过语音识别技术,获取用户的意图,为用户提供与意图匹配的服务,例如,用户说播放歌曲,智能音箱为用户播放音乐。语音识别的过程如下,例如,智能设备采集用户的音频流信息,并发送至服务器,服务器接收该音频流信息,解析该音频流信息得到音频中的内容信息;服务器根据上下文信息和此时的内容信息,判定用户的意图,服务器将与该意图匹配的操作数据发送至智能设备,以便智能设备按照操作数据为用户提供服务。
[0003]专利技术人发现相关技术中至少存在如下问题:目前用户与智能设备进行语音交互过程中,智能设备通常采用用户预先设定的声音进行回复,回复的声音一成不变,降低了用户与智能设备进行语音交互的需求,影响用户使用智能设备的体验。

技术实现思路

[0004]本专利技术实施方式的目的在于提供一种语音交互的方法、装置、电子设备及存储介质,使得可以采用与用户情绪信息匹配的合成音进行语音交互,提高电子设备的拟人化功能。
[0005]为解决上述技术问题,本专利技术的实施方式提供了一种语音交互的方法,包括:获取用户的音频数据,解析用户的用户情绪信息;根据用户情绪信息,获取与用户情绪信息匹配的交互合成音;根据获取的交互合成音,与用户进行语音交互。
[0006]本专利技术的实施方式还提供了一种语音交互的装置,包括:识别模块、获取模块和交互模块;识别模块用于获取用户的音频数据,解析用户的用户情绪信息;获取模块用于根据用户情绪信息,获取与用户情绪信息匹配的交互合成音;交互模块用于根据获取的交互合成音,与用户进行语音交互。
[0007]本专利技术的实施方式还提供了一种电子设备,包括:至少一个处理器;以及,与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行上述的语音交互的方法。
[0008]本专利技术的实施方式还提供了一种计算机可读存储介质,存储有计算机程序,计算机程序被处理器执行时实现上述的语音交互的方法。
[0009]本专利技术实施方式相对于现有技术而言,获取用户的情绪信息,获取与用户情绪信息匹配的交互合成音,根据该交互合成音与用户进行语音交互,由于与用户进行交互的交互合成音不再是一成不变的声音,在用户不同的情绪下,与情绪匹配的交互合成音不同,使得用户会感受到是与具有感情的电子设备进行语音交互,提高了电子设备的拟人化程度,提高了用户使用电子设备进行语音交互的使用体验感。
[0010]另外,从用户的音频数据中获取用户的意图信息;根据用户情绪信息和意图信息,从预先存储的人物角色中获取与用户情绪匹配的交互角色;根据交互角色对应的合成音,生成交互合成音。增加用户的意图信息,结合意图信息和用户情绪信息可以提高匹配交互角色的准确度,获取到使用户满意的交互合成音。
[0011]另外,从用户的音频数据中获取用户的意图信息,包括:提取用户的音频数据中的第一意图信息;根据用户情绪信息,矫正第一意图信息,获取第二意图信息作为用户的意图信息。通过用户情绪信息,可以矫正第一意图信息,提高确定的用户的意图信息的准确度。
[0012]另外,人物角色包括:关联角色和常规角色,关联角色为用户的社交关系网络中的角色,常规角色为用户的社交关系网络之外的角色;根据用户情绪信息和意图信息,从存储的角色中选取匹配的交互角色,包括:获取用户的社交关系网络;根据用户情绪信息、用户的社交关系网络以及意图信息,判断关联角色中是否存在匹配的交互角色,获得判断结果;若判断结果指示关联角色中不存在匹配的交互角色,则从常规角色中选取交互角色;若判断结果指示关联角色中存在匹配的交互角色,则从关联角色中选取匹配的交互角色。关联角色是用户的社交关系网络中的人物角色,获取用户熟悉角色的声音作为交互合成音,提高用户的满意度;另外优先在关联角色中匹配交互角色,可以提高匹配的速度。
[0013]另外,获取用户的音频数据,解析用户的用户情绪信息,包括:对用户的音频数据进行预处理,预处理包括:预加重和/或语音端点检测;提取处理后的用户的音频数据的情绪特征信息;根据提取的情绪特征信息以及预设的情绪识别模型,获取用户的情绪信息。对用户的音频数据进行预处理,提高提取情绪特征信息的准确度,采用预设的情绪识别模型进行情绪识别,识别速度快且准确。
[0014]另外,根据获取的交互合成音,与用户进行语音交互,包括:根据用户情绪信息,获取选取的交互合成音的交互情绪信息;按照选取的交互合成音以及交互情绪信息,生成与用户语音交互的交互语音。进一步提高了电子设备的拟人化程度。
[0015]另外,根据获取的交互合成音,与用户进行语音交互,包括:根据意图信息,获取与用户交互的交互文本信息;根据获取的交互合成音以及交互文本信息,生成与用户语音交互的交互语音。利用交互合音和交互文本信息生成交互语音,可以根据不同的情绪发出交互文本信息的内容,提高电子设备交互的质量。
附图说明
[0016]一个或多个实施例通过与之对应的附图中的图片进行示例性说明,这些示例性说明并不构成对实施例的限定,附图中具有相同参考数字标号的元件表示为类似的元件,除非有特别申明,附图中的图不构成比例限制。
[0017]图1是根据本专利技术提供的第一实施例中的一种语音交互的方法的流程图;
[0018]图2是根据本专利技术提供的第二实施例中的一种语音交互的方法的流程图;
[0019]图3是根据本专利技术提供的第二实施例中的解析用户的用户情绪信息的一种具体实现示意图;
[0020]图4是根据本专利技术提供的第二实施例中一种滤波器的示意图;
[0021]图5是根据本专利技术提供的第二实施例中一种相邻两帧音频数据的示意图;
[0022]图6是根据本专利技术提供的第二实施例中音素和状态之间关系的示意图;
[0023]图7是根据本专利技术提供的第二实施例中用户的社交关系网络的示意图;
[0024]图8是根据本专利技术提供的第三实施例中的一种语音交互的方法的流程图;
[0025]图9是根据本专利技术提供的第四实施例中的一种语音交互的装置的结构框图;
[0026]图10是根据本专利技术提供的第五实施例中的一种电子设备的结构框图。
具体实施方式
[0027]为使本专利技术实施例的目的、技术方案和优点更加清楚,下面将结合附图对本专利技术的各实施方式进行详细的阐述。然而,本领域的普通技术人员可以理解,在本专利技术各实施方式中,为了使读者更好地理解本申请而提出了许多技术细节。但是,即使没有这些技术细节和基于以下各实施方式的种种变化和修改,也可以实现本申请所要求保护的技术方案。
[0028]以下各个实施例的划分是为了描述方便,不应对本专利技术的具体实现方式构成任何限定,各个实施例在不矛盾的前提下可以相互结合相本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种语音交互的方法,其特征在于,包括:获取用户的音频数据,解析所述用户的用户情绪信息;根据所述用户情绪信息,获取与所述用户情绪信息匹配的交互合成音;根据获取的所述交互合成音,与所述用户进行语音交互。2.根据权利要求1所述的语音交互的方法,其特征在于,所述根据所述用户情绪信息,获取与所述用户情绪信息匹配的交互合成音,包括:从所述用户的音频数据中获取所述用户的意图信息;根据所述用户情绪信息和所述意图信息,从预先存储的人物角色中获取与所述用户情绪匹配的交互角色;根据所述交互角色对应的合成音,生成所述交互合成音。3.根据权利要求2所述的语音交互的方法,其特征在于,所述从所述用户的音频数据中获取所述用户的意图信息,包括:提取所述用户的音频数据中的第一意图信息;根据所述用户情绪信息,矫正所述第一意图信息,获取第二意图信息作为所述用户的意图信息。4.根据权利要求2所述的语音交互的方法,其特征在于,所述人物角色包括:关联角色和常规角色,所述关联角色为用户的社交关系网络中的角色,所述常规角色为所述用户的社交关系网络之外的角色;所述根据所述用户情绪信息和所述意图信息,从存储的角色中选取匹配的交互角色,包括:根据所述用户情绪信息和所述意图信息,判断所述关联角色中是否存在匹配的交互角色,获得判断结果;若所述判断结果指示所述关联角色中不存在匹配的交互角色,则从常规角色中选取交互角色;若所述判断结果指示所述关联角色中存在匹配的交互角色,则从关联角色中选取匹配的交互角色。5.根据权利要求1所述的语音交互的方法,其特征在于,所述获取用户的音频数据,解析所述用户的用户情绪信息,包括:对所述用户的音频数据进行预...

【专利技术属性】
技术研发人员:陈志飞徐运李栋
申请(专利权)人:中国移动通信集团有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1
相关领域技术
  • 暂无相关专利