情绪识别方法、装置、计算机设备及存储介质制造方法及图纸

技术编号:19636929 阅读:25 留言:0更新日期:2018-12-01 17:25
本发明专利技术实施例中提供了一种情绪识别方法、装置、计算机设备及存储介质。所述方法包括:采用语音识别技术确定在目标场景中对话语音的目标对话文本;采用预先训练的通用场景的通用情绪识别模型对所述目标对话文本进行识别得到通用识别结果;采用预先训练的目标场景的目标情绪识别模型对所述目标对话文本进行识别得到目标场景识别结果;依据所述通用识别结果和所述目标场景识别结果,得到所述目标对话文本的情绪状态。本发明专利技术实施例中的情绪识别方法能够结合通用情绪识别模型和目标场景的目标情绪识别模型来对目标场景的语音会话进行情绪识别,提高了情绪状态识别结果的准确度,降低了人力成本,克服了语音交互效果难以把控的缺陷。

Emotion Recognition Method, Device, Computer Equipment and Storage Media

An emotion recognition method, device, computer equipment and storage medium are provided in the embodiment of the present invention. The methods include: using speech recognition technology to determine the target dialogue text of speech in the target scene; using pretrained general scene emotion recognition model to recognize the target dialogue text to get the general recognition result; using pretrained target scene emotion recognition model to identify the target dialogue text. The target dialogue text is recognized and the target scene recognition result is obtained. According to the general recognition result and the target scene recognition result, the emotional state of the target dialogue text is obtained. The emotional recognition method in the embodiment of the present invention can combine the general emotional recognition model and the target emotional recognition model of the target scene to conduct emotional recognition for the speech conversation of the target scene, improve the accuracy of the result of emotional state recognition, reduce the labor cost, and overcome the defect that the voice interaction effect is difficult to control.

【技术实现步骤摘要】
情绪识别方法、装置、计算机设备及存储介质
本专利技术实施例涉及计算机应用
,尤其涉及一种情绪识别方法、装置、计算机设备及存储介质。
技术介绍
随着人工智能的发展,智能交互在越来越多的领域中发挥着越来越重要的作用,而智能交互中,一个重要的方向,就是如何识别交互过程中,用户当前的情绪状态,从而为整个智能交互系统提供情绪层面的反馈,及时作出调整,以便应对不同情绪状态下的用户,提升整个交互过程的服务质量。由于同一词语在不同场景下含义不同,表示的情绪状态不同,相关技术的通用性不足,情绪状态的识别准确率低;并且,还存在样本量需求大,依赖于人力操作,人力成本高,语音交互效果难以把控等缺陷。
技术实现思路
本专利技术提供的一种情绪识别方法、装置、计算机设备及存储介质,能够结合通用情绪识别模型和目标场景的目标情绪识别模型来对目标场景的语音会话进行情绪识别,提高了情绪状态识别结果的准确度。第一方面,本专利技术实施例中提供了一种情绪识别方法,该方法包括:采用语音识别技术确定在目标场景中对话语音的目标对话文本;采用预先训练的通用场景的通用情绪识别模型对所述目标对话文本进行识别得到通用识别结果;采用预先训练的目标场景的目标情绪识别模型对所述目标对话文本进行识别得到目标场景识别结果;依据所述通用识别结果和所述目标场景识别结果,得到所述目标对话文本的情绪状态。第二方面,本专利技术实施例中还提供了一种情绪识别装置,该装置包括:文本确定模块,用于采用语音识别技术确定在目标场景中对话语音的目标对话文本;通用识别模块,用于采用预先训练的通用场景的通用情绪识别模型对所述目标对话文本进行识别得到通用识别结果;目标识别模块,用于采用预先训练的目标场景的目标情绪识别模型对所述目标对话文本进行识别得到目标场景识别结果;情绪确定模块,用于依据所述通用识别结果和所述目标场景识别结果,得到所述目标对话文本的情绪状态。第三方面,本专利技术实施例中还提供了一种计算机设备,该计算机设备包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如上任一所述的情绪识别方法。第四方面,本专利技术实施例中还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上任一所述的情绪识别方法。本专利技术实施例中提供了一种情绪识别方法,采用语音识别技术确定在目标场景中对话语音的目标对话文本;采用预先训练的通用场景的通用情绪识别模型对所述目标对话文本进行识别得到通用识别结果;采用预先训练的目标场景的目标情绪识别模型对所述目标对话文本进行识别得到目标场景识别结果;依据所述通用识别结果和所述目标场景识别结果,得到所述目标对话文本的情绪状态。本专利技术实施例中的情绪识别方法能够结合通用情绪识别模型和目标场景的目标情绪识别模型来对目标场景的语音会话进行情绪识别,提高了情绪状态识别结果的准确度,降低了人力成本,克服了语音交互效果难以把控的缺陷。附图说明图1示出了本专利技术实施例一中提供的一种情绪识别方法的流程示意图;图2示出了本专利技术实施例二中提供的一种情绪识别方法的流程示意图;图3示出了本专利技术实施例三中提供的一种情绪识别方法的流程示意图;图4示出了本专利技术实施例四中提供的一种情绪识别装置的结构示意图;图5示出了本专利技术实施例五中提供的一种计算机设备的结构示意图。具体实施方式下面结合附图和实施例对本专利技术作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本专利技术,而非对本专利技术的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本专利技术相关的部分而非全部结构。在更加详细地讨论示例性实施例之前应当提到的是,一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然流程图将各项操作(或步骤)描述成顺序的处理,但是其中的许多操作可以被并行地、并发地或者同时实施。此外,各项操作的顺序可以被重新安排。当其操作完成时所述处理可以被终止,但是还可以具有未包括在附图中的附加步骤。所述处理可以对应于方法、函数、规程、子例程、子程序等等。实施例一图1示出了本专利技术实施例一中提供的一种情绪识别方法的流程示意图,本专利技术实施例可应用于金融客服平台、银行客服平台、智能家居平台、在线教育平台等需要进行智能交互的场景,该方法可以由情绪识别装置来执行,该装置可以采用软件和/或硬件的方式实现,该装置可以集成在任何具有网络通信功能的计算机设备,该计算机设备可以为移动终端,比如手机、电脑等移动终端,也可以为服务器。如图1所示,本专利技术实施例中的情绪识别方法可以包括:S101、采用语音识别技术确定在目标场景中对话语音的目标对话文本。在本专利技术实施例中,目标场景可以是金融客服平台、网络贷款平台、银行客服平台、智能家居平台以及在线教育平台等类似平台中的客户服务场景,也可以是商家与客户之间的交互场景或者用户与用户之间的交互场景。通过语音输入部件可以获取目标场景中的对话语音。其中,语音输入部件可以为麦克风等用于接收语音的部件。情绪识别装置可以采用语音识别技术将获取的目标场景中的对话语音转化为与目标场景中的对话语音相对应的目标对话文本。需要说明的是,这里的语音识别技术可以是任一符合条件的语音识别技术,目标场景和目标对话文本是一种代指,目标场景可以理解为情绪识别装置当前正在进行情绪识别的场景,而目标对话文本可以理解为目标场景中对话语音对应的文本信息。在本专利技术实施例中,目标场景中的对话语音可能会比较长,当目标场景中的对话语音比较长时,情绪识别装置采用语音识别技术将目标场景中的对话语音转化为目标对话文本的过程会占用大量的资源。基于上述情况,可选的,可以将目标场景中的对话语音拆分成多个对话语音片段,采用语音识别技术将拆分得到的多个对话语音片段转换成相应的多个对话文本片段,然后将转换得到的多个对话文本片段按照顺序进行拼接,就可以确定在目标场景中对话语音的目标对话文本。这样可以既能准确的将目标场景中的对话语音转换为对应的目标对话文本,又不会在语音识别过程中占用大量的数据处理资源,以免由于占用过多资源影响其他数据的正常处理。S102、采用预先训练的通用场景的通用情绪识别模型对目标对话文本进行识别得到通用识别结果。在本专利技术实施例中,目标对话文本中可以包括强烈情感的情绪关键词和对场景敏感的情绪关键词等多种类型的情绪关键词。不同的目标场景中对情绪关键词的容忍度也不相同。强烈情感的情绪关键词可以理解为在任何场景下均需要被识别出来,不会因为场景的不同而会导致对话文本中的情绪状态发生变化的情绪关键词。例如,一种是具有强烈正向情感的情绪关键词的对话文本,比如:“你们这个真的是做的太棒了!”、“非常感谢,我特别喜欢这种功能!”、“哇,真厉害!”等类似的对话文本,上述对话文本中包含有强烈正向情感的情绪关键词;另一种是具有强烈负向情感的情绪关键词的对话文本,比如:“你们这个作品太垃圾了!”、“你今天看上去很痛苦!”、“你太可恶了!”等类似的对话文本,上述对话文本中包含有强烈负向情感的情绪关键词。对于强烈情感的情绪关键词而言,在任何场景下,都是不会有歧义的,不会对识别目标对话文本的情绪状态产生影响,并且由于上述情绪关键词为强烈情感的情绪关键词,各个场景下对强烈情感的情绪关键词容忍度均超过对应场景本文档来自技高网...

【技术保护点】
1.一种情绪识别方法,其特征在于,所述方法包括:采用语音识别技术确定在目标场景中对话语音的目标对话文本;采用预先训练的通用场景的通用情绪识别模型对所述目标对话文本进行识别得到通用识别结果;采用预先训练的目标场景的目标情绪识别模型对所述目标对话文本进行识别得到目标场景识别结果;依据所述通用识别结果和所述目标场景识别结果,得到所述目标对话文本的情绪状态。

【技术特征摘要】
1.一种情绪识别方法,其特征在于,所述方法包括:采用语音识别技术确定在目标场景中对话语音的目标对话文本;采用预先训练的通用场景的通用情绪识别模型对所述目标对话文本进行识别得到通用识别结果;采用预先训练的目标场景的目标情绪识别模型对所述目标对话文本进行识别得到目标场景识别结果;依据所述通用识别结果和所述目标场景识别结果,得到所述目标对话文本的情绪状态。2.根据权利要求1所述的方法,其特征在于,所述采用预先训练的通用场景的通用情绪识别模型对所述目标对话文本进行识别得到通用识别结果,包括:若检测到在对其他场景中的其他对话文本进行情绪识别过程中使用了通用情绪识别模型,则复用其他场景中使用的通用情绪识别模型对所述目标对话文本进行识别得到通用识别结果。3.根据权利要求1所述的方法,其特征在于,在所述采用预先训练的通用场景的通用情绪识别模型对所述目标对话文本进行识别得到通用识别结果之前,还包括:从至少一个场景的对话文本中选择通用对话文本,并确定所述通用对话文本的情绪状态;依据所述通用对话文本以及所述通用对话文本的情绪状态,训练得到通用情绪识别模型。4.根据权利要求1所述的方法,其特征在于,所述依据所述通用识别结果和所述目标场景识别结果,得到所述目标对话文本的情绪状态,包括:若所述通用识别结果中没有情绪状态,则将所述目标场景识别结果作为目标对话文本的情绪状态。5.一种情绪识别装置,其特征在于,所述装置包括:文本确定模块,用于采用语音识别技术确定在目标场景中对话语音的目标对话文本;通用识别...

【专利技术属性】
技术研发人员:林英展陈炳金梁一川凌光周超
申请(专利权)人:北京百度网讯科技有限公司
类型:发明
国别省市:北京,11

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1