基于用户语调的情绪识别方法技术

技术编号:39657478 阅读:8 留言:0更新日期:2023-12-09 11:26
本发明专利技术提供了一种基于用户语调的情绪识别方法,包括:对预获取的语音数据进行处理,得到文本信息;根据第一文本情绪识别方法对文本信息进行文本情绪分析,得到第一用户情绪;根据预设语音特征提取方法,对语音数据进行语音特征提取,得到语音特征信息和语调幅值变化状态特征信息;根据第二语音情绪识别方法对语音特征信息进行语音情绪分析,得到第二用户情绪;根据情绪处理逻辑,基于语调幅值变化状态特征信息和语音特征信息对第一用户情绪和第二用户情绪进行分析处理,确定用户当前情绪

【技术实现步骤摘要】
基于用户语调的情绪识别方法


[0001]本专利技术涉及情绪识别
,尤其涉及一种基于用户语调的情绪识别方法


技术介绍

[0002]随着互联网技术的快速发展,在很多工作领域都存在人工智能或者人机交互的身影,它们被用于替代或者简化人们在一些工作场景中的工作内容,或是进行更良好更便捷的人机交互操作,如语音助手

智能客服等

目前,在进行语音情绪识别时,通常采用的方式为:首先,使用语音识别技术
(
例如,
Automated Speech Recognition

ASR)
将语音内容转换为文本内容,然后,结合自然语言处理
(Natural Language Processing

NLP)
技术中的文本情感分析
(Natural Language Processing)
来识别语音情绪,以实现人机交互;现有技术仅对文本进行情感分析,但除了文本内容之外,语音特征信息对于情绪的识别也存在重要作用,仅考虑对文本进行情感分析,未考虑其它语音特征信息,导致语音情绪识别的准确度降低,因此,亟需一种基于用户语调的情绪识别方法,用于结合文本特征信息和语音特征信息共同对情绪进行识别


技术实现思路

[0003]针对现有技术的不足,本专利技术提供一种基于用户语调的情绪识别方法,用于解决上述问题

[0004]一种基于用户语调的情绪识别方法,包括:对预获取的语音数据进行处理,得到文本信息;根据第一文本情绪识别方法对文本信息进行文本情绪分析,得到第一用户情绪;根据预设语音特征提取方法,对语音数据进行语音特征提取,得到语音特征信息和语调幅值变化状态特征信息;根据第二语音情绪识别方法对语音特征信息进行语音情绪分析,得到第二用户情绪;根据情绪处理逻辑,基于语调幅值变化状态特征信息和语音特征信息对第一用户情绪和第二用户情绪进行分析处理,确定用户当前情绪

[0005]作为本专利技术的一种实施例,语音特征信息包括语速特征信息

声线特征信息和语调特征信息

[0006]作为本专利技术的一种实施例,对预获取的语音数据进行处理,得到文本信息,包括:根据预先训练好的语音识别模型将语音数据识别为文本数据,对文本数据进行文本关键词提取,得到若干文本关键词;基于预设文本自动生成逻辑性及连贯性规则,根据若干文本关键词,生成文本信息

[0007]作为本专利技术的一种实施例,根据第二语音情绪识别方法对语音特征信息进行语音情绪分析,得到第二用户情绪,包括:获取语速特征信息,基于预设语速等级划分规则,对当前用户的语速进行等级划分,生成语速等级;其中,每一语速等级对应用户一种情绪状态;获取声线特征信息,基于预先训练好的声线识别模型对声线特征信息进行识别,得到声线情绪状态;获取语调特征信息,基于预先训练好的语调识别模型对声线特征信息进行识别,得到语调情绪状态;根据语速等级

声线情绪状态和语调情绪状态在预先确定好的情绪数
据库中进行情绪匹配,确定第二用户情绪;其中,情绪数据库中包括若干种情绪,每一种情绪对应一种语速等级

声线情绪状态和语调情绪状态,且每一种情绪中语速等级

声线情绪状态和语调情绪状态的组合搭配唯

[0008]作为本专利技术的一种实施例,获取训练样本包括:获取公开
TCGA
中的若干
HE
染色膀胱组织的训练
WSI
;对训练
WSI
进行标签标记,并过滤训练
WSI
,得到若干只保留了具有基因表达

基因甲基化和基因突变标签的
WSI
图像;对若干
WSI
图像进行划分,得到验证
WSI


训练
WSI
集和测试
WSI
集;基于
400
倍放大倍数,对所有
WSI
集进行
320
×
320
像素的图像块划分,并过滤背景,得到第二验证
WSI


第二训练
WSI
集和第二测试
WSI


[0009]作为本专利技术的一种实施例,根据情绪处理逻辑,基于语调幅值变化状态特征信息和语音特征信息对第一用户情绪和第二用户情绪进行分析处理,确定用户当前情绪,包括:判断预设时间内用户语调幅值变化状态特征信息是否发生变化,若发生变化,获取变化后的用户第二语调特征信息,并判断第二语调特征信息是否为消极语调特征信息,若判定为是,以第二用户情绪为主要情绪,结合第一用户情绪为次要情绪,基于情绪结合分析逻辑,确定用户当前情绪;若预设时间内用户语调幅值变化状态特征信息没有发生变化,判断用户的语调特征信息是否为消极语调特征信息,若判定为是,以第二用户情绪为主要情绪,结合第一用户情绪为次要情绪,基于预设情绪结合分析逻辑,确定用户当前情绪

[0010]作为本专利技术的一种实施例,一种基于用户语调的情绪识别方法还包括:若判定用户的语调特征信息或第二语调特征信息不是消极语调特征信息,以第一用户情绪为主要情绪,结合第二用户情绪为次要情绪,基于第二预设情绪结合分析逻辑,确定用户当前情绪

[0011]作为本专利技术的一种实施例,以第二用户情绪为主要情绪,结合第一用户情绪为次要情绪,基于预设情绪结合分析逻辑,确定用户当前情绪,包括:以第二用户情绪为主要情绪,结合第一用户情绪为次要情绪,构建情绪链接关系;筛选得到预设情绪结合数据库中与情绪链接关系对应的情绪数据作为用户当前情绪;其中,预设情绪结合数据库包括若干不同的情绪链接关系和与每一情绪链接关系一一对应的情绪数据

[0012]作为本专利技术的一种实施例,一种基于用户语调的情绪识别方法还包括:根据用户当前情绪,基于预设智能电话信息推荐方法实时执行人机切换操作

[0013]作为本专利技术的一种实施例,一种基于用户语调的情绪识别方法还包括:获取用户当前情绪,构建情绪扩散模拟场景,计算当前空闲的每一接线员与用户当前情绪之间的情绪扩散匹配度,选择情绪扩散匹配度最高的空闲接线员与当前用户进行连线

[0014]作为本专利技术的一种实施例,获取用户当前情绪,构建情绪扩散模拟场景,计算当前空闲的每一接线员与用户当前情绪之间的情绪扩散匹配度,选择情绪扩散匹配度最高的空闲接线员与当前用户进行连线,包括:预先每隔预设时间对接线员进行一次情绪传染互动数据测试,得到每一接线员在面对不同用户情绪时的情绪传染互动数据;获取待模拟的用户当前情绪,基于用户当前情绪,确定当前空闲的接线员与用户当前情绪匹配的情绪传染互动数据;根据所有情绪传染互动数据构建情绪扩散模拟场景,基于情绪扩散本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.
一种基于用户语调的情绪识别方法,其特征在于,包括:对预获取的语音数据进行处理,得到文本信息;根据第一文本情绪识别方法对文本信息进行文本情绪分析,得到第一用户情绪;根据预设语音特征提取方法,对语音数据进行语音特征提取,得到语音特征信息和语调幅值变化状态特征信息;根据第二语音情绪识别方法对语音特征信息进行语音情绪分析,得到第二用户情绪;根据情绪处理逻辑,基于语调幅值变化状态特征信息和语音特征信息对第一用户情绪和第二用户情绪进行分析处理,确定用户当前情绪
。2.
根据权利要求1所述的一种基于用户语调的情绪识别方法,其特征在于,语音特征信息包括语速特征信息

声线特征信息和语调特征信息
。3.
根据权利要求1所述的一种基于用户语调的情绪识别方法,其特征在于,对预获取的语音数据进行处理,得到文本信息,包括:根据预先训练好的语音识别模型将语音数据识别为文本数据,对文本数据进行文本关键词提取,得到若干文本关键词;基于预设文本自动生成逻辑性及连贯性规则,根据若干文本关键词,生成文本信息
。4.
根据权利要求1所述的一种基于用户语调的情绪识别方法,其特征在于,根据第二语音情绪识别方法对语音特征信息进行语音情绪分析,得到第二用户情绪,包括:获取语速特征信息,基于预设语速等级划分规则,对当前用户的语速进行等级划分,生成语速等级;其中,每一语速等级对应用户一种情绪状态;获取声线特征信息,基于预先训练好的声线识别模型对声线特征信息进行识别,得到声线情绪状态;获取语调特征信息,基于预先训练好的语调识别模型对声线特征信息进行识别,得到语调情绪状态;根据语速等级

声线情绪状态和语调情绪状态在预先确定好的情绪数据库中进行情绪匹配,确定第二用户情绪;其中,情绪数据库中包括若干种情绪,每一种情绪对应一种语速等级

声线情绪状态和语调情绪状态,且每一种情绪中语速等级

声线情绪状态和语调情绪状态的组合搭配唯一
。5.
根据权利要求1所述的一种基于用户语调的情绪识别方法,其特征在于,根据情绪处理逻辑,基于语调幅值变化状态特征信息和语音特征信息对第一用户情绪和第二用户情绪进行分析处理,确定用户当前情绪,包括:判断预设时间内用户语调幅值变化状态特征信息是否发生变化,若发生变化,获取变化后的用户第二语调特征信息,并判断第二语调特征信息是否为消极语调特征信息,若判定为是,以第二用户情绪为主要情绪,...

【专利技术属性】
技术研发人员:王沛王睿俐王铭乾
申请(专利权)人:广州易风健康科技股份有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1