处理方法、移动终端及存储介质技术

技术编号:29706468 阅读:9 留言:0更新日期:2021-08-17 14:36
本申请公开了一种处理方法、移动终端及存储介质,该方法包括:获取参考数据;根据所述参考数据确定用户的当前情绪状态;根据所述当前情绪状态对人机交互应用的语音参数进行调整。通过本申请实施例,可以使得人机交互应用语音参数调整更加智能化、自动化,提升人机交互应用交互的主动性。

【技术实现步骤摘要】
处理方法、移动终端及存储介质
本申请涉及计算机
,具体涉及一种处理方法、移动终端及存储介质。
技术介绍
随着人工智能时代的到来,智能化应用的研发更加深入,使用范围更加广泛,渗透到各行各业,也为人们的生活带来了极大的便利,值得一提的是,各智能化应用中大都涉及人机交互,而放眼当前和未来,人机交互在的科技领域中都有举足轻重的作用。然而,在构思及实现本申请过程中,专利技术人发现至少存在如下问题:长久以来人机交互应用都是处于被动的交互中,即用户输入指令,人机交互应用输出反馈结果,例如语音助手中用户给到相应语音指令,语音助手可以实现拨打电话、导航、切换语音参数等功能,但是人机交互应用交互的主动性、智能化以及自动化还需要进一步提升。前面的叙述在于提供一般的背景信息,并不一定构成现有技术。
技术实现思路
针对上述技术问题,本申请提供一种处理方法、移动终端及存储介质,使得人机交互应用的语音参数调整更加智能化、自动化,提升人机交互应用交互的主动性。为解决上述技术问题,本申请提供一种处理方法,包括:获取参考数据;根据参考数据确定用户的当前情绪状态;根据当前情绪状态对人机交互应用的语音参数进行调整。可选地,所述语音参数可以为语音类型,也可以为音量或音调或语速等。可选地,参考数据包括用户语音数据、用户运动状态数据、用户脸部图像数据中的一种或多种。可选地,参考数据包括用户语音数据,根据参考数据确定用户的当前情绪状态,包括:根据用户语音数据进行语音关键词提取,得到关键词提取结果;根据关键词提取结果确定用户的当前情绪状态。可选地,根据关键词提取结果确定用户的当前情绪状态,包括:根据用户语音数据进行语音特征提取,得到音量特征和/或音调特征;根据音量特征和关键词提取结果,确定用户的当前情绪状态;或者,根据音调特征和关键词提取结果,确定用户的当前情绪状态;或者,根据音量特征、音调特征和关键词提取结果,确定用户的当前情绪状态。可选地,参考数据包括用户脸部图像数据,根据参考数据确定用户的当前情绪状态,包括:根据用户脸部图像数据进行脸部特征提取,得到脸部表情特征;根据脸部表情特征确定用户的当前情绪状态。可选地,参考数据包括用户运动状态数据,根据参考数据确定用户的当前情绪状态,包括:根据用户运动状态数据进行运动特征提取,确定运动特征变化信息;根据运动特征变化信息确定用户的当前情绪状态。可选地,参考数据包括用户的至少两种相关数据,根据参考数据确定用户的当前情绪状态,包括:根据参考数据中的第一相关数据确定用户的第一情绪状态,第一相关数据为参考数据包括用户的至少两种相关数据中的任一种;利用参考数据中的第二相关数据确定用户的第二情绪状态,第二相关数据为参考数据包括用户的至少两种相关数据中除第一相关数据之外的任一种;根据第一情绪状态和第二情绪状态确定用户的当前情绪状态。可选地,根据第一情绪状态和第二情绪状态确定用户的当前情绪状态,包括:当第一情绪状态和第二情绪状态不一致时,获取第一相关数据所对应的置信度,以及获取第二相关数据所对应的置信度;根据第一相关数据所对应的置信度以及第二相关数据所对应的置信度,从第一情绪状态和第二情绪状态中确定用户的当前情绪状态。可选地,获取用户运动状态数据,包括:当用户处于驾驶状态时,获取车辆行驶状态数据;将车辆行驶状态数据作为用户运动状态数据,可选地,车辆行驶状态数据包括车辆行驶速度、车辆位置、车辆所在行驶道路的交通情况中的一种或多种。可选地,根据当前情绪状态对人机交互应用的语音参数进行调整,包括:获取预设的情绪状态与语音参数之间的映射关系;根据映射关系确定当前情绪状态所对应的目标语音参数;将人机交互应用的语音参数调整为目标语音参数。可选地,根据用户语音数据进行语音关键词提取,得到关键词提取结果,包括:将用户语音数据输入目标语音处理模型中进行处理,得到关键词提取结果;可选地,目标语音处理模型包括语音识别网络和语义识别网络,语音识别网络用于对用户语音数据进行文本转换处理,得到文本数据,语义识别网络用于对文本数据进行关键词提取处理,得到关键词提取结果。可选地,该方法还包括:获取训练数据集,训练数据集包括至少一组样本数据,每一组样本数据包括语音样本和语音样本中的用于进行情绪状态判定的关键词样本;利用训练数据集对初始语音处理模型包括的初始语音识别网络和初始语义识别网络进行训练,得到目标语音处理模型。可选地,该方法还包括:按照调整前的语音参数输出将进行语音参数调整的语音提示;和/或,按照调整后的语音参数输出语音参数调整完成的语音提示。本申请还提供了一种处理装置,包括:获取模块,用于获取参考数据;确定模块,用于根据参考数据确定用户的当前情绪状态;调整模块,用于根据当前情绪状态对人机交互应用的语音参数进行调整。本申请还提供一种移动终端,包括:存储器、处理器,其中,存储器上存储有处理程序,处理程序被处理器执行时实现如上任一所述方法的步骤。本申请还提供一种计算机存储介质,计算机存储介质存储有计算机程序,计算机程序被处理器执行时实现如上任一所述方法的步骤。如上,本申请的处理方法,可以应用于移动终端,该方法通过获取到的参考数据确定用户的当前情绪状态,进而调整人机交互应用的语音参数。这样可以让人机交互应用的语音参数根据用户的当前情绪状态自适应调整,提高了人机交互应用交互的主动性,使得人机交互应用更加智能化和自动化。附图说明此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。为了更清楚地说明本申请实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。图1为实现本申请各个实施例的一种移动终端的硬件结构示意图;图2为本申请实施例提供的一种通信网络系统架构图;图3是根据第一实施例示出的一种处理方法的流程示意图;图4a是根据第一实施例示出的一种人机交互应用唤醒的界面示意图;图4b是根据第一实施例示出的一种人机交互应用录入唤醒语音的界面示意图;图5是根据第二实施例示出的一种处理方法的流程示意图;图6是根据第二实施例示出的驾驶场景下判定当前情绪状态的示意图;图7是根据第三实施例示出的一种处理方法的流程示意图;图8是根据第三实施例示出的一种获取关键词的示意图;图9是根据第三实施例示出的一种预设的情绪状态和语音参数之间的映射关系的示意图;图10是根据第四实施例示出的一种处理装置的结构示意图。本申请目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。通过上述附图,已示出本申请明确的实施例,后文中将有更详细的描述。这些附图和文字描述并不是为了通过任何方式限制本申请构思的范围,而是通过参考特定实施本文档来自技高网...

【技术保护点】
1.一种处理方法,其特征在于,所述方法包括:/n获取参考数据,所述参考数据包括用户语音数据、用户运动状态数据、用户脸部图像数据中的一种或多种;/n根据所述参考数据确定用户的当前情绪状态;/n根据所述当前情绪状态对人机交互应用的语音参数进行调整。/n

【技术特征摘要】
1.一种处理方法,其特征在于,所述方法包括:
获取参考数据,所述参考数据包括用户语音数据、用户运动状态数据、用户脸部图像数据中的一种或多种;
根据所述参考数据确定用户的当前情绪状态;
根据所述当前情绪状态对人机交互应用的语音参数进行调整。


2.如权利要求1所述的方法,其特征在于,所述参考数据包括用户语音数据,所述根据所述参考数据确定用户的当前情绪状态,包括:
根据所述用户语音数据进行语音关键词提取,得到关键词提取结果;
根据所述关键词提取结果确定用户的当前情绪状态。


3.如权利要求2所述的方法,其特征在于,所述根据所述关键词提取结果确定用户的当前情绪状态,包括:
根据所述用户语音数据进行语音特征提取,得到音量特征和/或音调特征;
根据所述音量特征和所述关键词提取结果,确定用户的当前情绪状态;
或者,根据所述音调特征和所述关键词提取结果,确定用户的当前情绪状态;
或者,根据所述音量特征、所述音调特征和所述关键词提取结果,确定用户的当前情绪状态。


4.如权利要求1至3中任一项所述的方法,其特征在于,所述参考数据包括用户脸部图像数据,所述根据所述参考数据确定用户的当前情绪状态,包括:
根据所述用户脸部图像数据进行脸部特征提取,得到脸部表情特征;
根据所述脸部表情特征确定用户的当前情绪状态。


5.如权利要求1至3中任一项所述的方法,其特征在于,所述参考数据包括用户运动状态数据,所述根据所述参考数据确定用户的当前情绪状态,包括:
根据所述用户运动状态数据进行运动特征提取,确定运动特征变化信息;
根据所述运动特征变化信息确定用户的当前情绪状态。


6.如权利要求1至3中任...

【专利技术属性】
技术研发人员:万彩艳
申请(专利权)人:深圳传音控股股份有限公司
类型:发明
国别省市:广东;44

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1