模型生成方法、情绪识别方法、装置、设备及存储介质制造方法及图纸

技术编号:31086643 阅读:21 留言:0更新日期:2021-12-01 12:40
本公开提供了模型生成方法、情绪识别方法、装置、电子设备及存储介质,涉及语音技术、自然语言处理等人工智能技术领域。具体实现方案为:将音频数据输入待训练的识别模型,获取针对所述音频数据输出的性别识别结果和情绪识别结果;基于所述性别识别结果、所述情绪识别结果和标注结果,调整所述待训练的识别模型,得到情绪识别模型。本公开实施例能够提高情绪识别的准确性。情绪识别的准确性。情绪识别的准确性。

【技术实现步骤摘要】
模型生成方法、情绪识别方法、装置、设备及存储介质


[0001]本公开涉及计算机
,进一步涉及语音技术、自然语言处理等人工智能
,尤其涉及一种模型生成方法、情绪识别方法、装置、电子设备及存储介质。

技术介绍

[0002]随着计算机技术的发展,人们可以通过计算机实现更多的新功能,情绪识别就是其中一种。
[0003]通过计算机进行情绪识别,包括通过检测外在可观测到的信息,对情绪状态进行判断。由于情绪是人类复杂的心理活动,因此,情绪识别的准确性的提高仍是一个需要长期关注的问题。

技术实现思路

[0004]本公开提供了一种模型生成方法、情绪识别方法、装置、电子设备及存储介质。
[0005]根据本公开的一方面,提供了一种模型生成方法,包括:
[0006]将音频数据输入待训练的识别模型,获取针对音频数据输出的性别识别结果和情绪识别结果;
[0007]基于性别识别结果、情绪识别结果和标注结果,调整待训练的识别模型,得到情绪识别模型。
[0008]根据本公开的另一方面,提供了一种情绪识别方法,包括:
[0009]将待识别的音频数据输入识别模型,得到情绪识别结果,识别模型为本公开任意一项实施例所提供的情绪识别模型。
[0010]根据本公开的另一方面,提供了一种模型生成装置,包括:
[0011]识别模块,用于将音频数据输入待训练的识别模型,获取针对音频数据输出的性别识别结果和情绪识别结果;
[0012]训练模块,用于基于性别识别结果、情绪识别结果和标注结果,调整待训练的识别模型,得到情绪识别模型。
[0013]根据本公开的另一方面,提供了一种情绪识别装置,包括:
[0014]将待识别的音频数据输入识别模型,得到情绪识别结果,识别模型为本公开任意一项实施例所提供的情绪识别模型。
[0015]根据本公开的另一方面,提供了一种电子设备,包括:
[0016]至少一个处理器;以及
[0017]与该至少一个处理器通信连接的存储器;其中,
[0018]该存储器存储有可被该至少一个处理器执行的指令,该指令被该至少一个处理器执行,以使该至少一个处理器能够执行本公开任一实施例中的方法。
[0019]根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,该计算机指令用于使计算机执行本公开任一实施例中的方法。
[0020]根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现本公开任一实施例中的方法。
[0021]根据本公开的技术,在识别情绪时,融入了性别信息,从而能够提高情绪识别结果的准确性。
[0022]应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
[0023]附图用于更好地理解本方案,不构成对本公开的限定。其中:
[0024]图1是根据本公开一实施例的模型生成方法示意图;
[0025]图2是根据本公开另一实施例的模型生成方法示意图;
[0026]图3是根据本公开又一实施例的模型生成方法示意图;
[0027]图4是根据本公开一实施例的识别方法示意图;
[0028]图5是根据本公开一示例的模型生成方法示意图;
[0029]图6是根据本公开一示例的待训练的识别模型生成示意图;
[0030]图7是根据本公开一实施例的模型生成装置示意图;
[0031]图8是根据本公开另一实施例的模型生成装置示意图;
[0032]图9是根据本公开又一实施例的模型生成装置示意图;
[0033]图10是根据本公开又一实施例的模型生成装置示意图;
[0034]图11是根据本公开又一实施例的模型生成装置示意图;
[0035]图12是根据本公开又一实施例的模型生成装置示意图;
[0036]图13是根据本公开又一实施例的模型生成装置示意图;
[0037]图14是用来实现本公开实施例的模型生成方法的电子设备的框图。
具体实施方式
[0038]以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
[0039]本公开实施例首先提供一种模型生成方法,如图1所示,包括:
[0040]步骤S11:将音频数据输入待训练的识别模型,获取针对音频数据输出的性别识别结果和情绪识别结果;
[0041]步骤S12:基于性别识别结果、情绪识别结果和标注结果,调整待训练的识别模型,得到情绪识别模型。
[0042]本实施例中,音频数据可以是包含人或动物声音的任何音频数据。比如,可以是人说话的音频数据、唱歌的音频数据或者人嗓子发出声音产生的其它音频数据。
[0043]音频数据可以包括一个发声者发出的声音,也可以包括两个以上不同发声者发出的声音。
[0044]音频数据可以包括采用单独种类的语言说话产生的音频,还可以包括采用多种语
言说话产生的音频,比如,可以是发声者采用汉语说话产生的音频、采用外语说话产生的音频、汉语和外语夹杂使用产生的音频以及不同外语夹杂使用产生的音频。
[0045]针对音频数据输出的性别识别结果和情绪识别结果,包括针对音频数据中至少一个发声者的声音,输出关于发声者的性别的识别结果和关于发声者的情绪的识别结果。
[0046]性别识别结果可以包括音频数据的发声者属于各种性别的概率,比如,发声者属于男性的概率为60%,属于女性的概率为40%。性别识别结果也可以包括单独的一种性别的识别结果,比如第一发声者属于男性,第二发声者属于女性。
[0047]情绪识别结果可以包括音频数据的发声者处于各种情绪状态的概率,比如,发声者处于高兴情绪状态的概率为80%,处于伤心情绪状态的概率为20%。情绪识别结果也可以包括单独、明确的情绪识别结果,比如,发声者处于高兴情绪,或者发声者处于高兴与紧张结合的情绪。
[0048]在另一种实现方式中,如果情绪识别结果中包括两种完全冲突的情绪,则可在完全冲突的两种情绪中选择一种情绪输出,如果情绪识别结果中包括可共同出现的两种以上的情绪,如开心和放松,则可同时输出两种以上可共同出现的情绪。
[0049]本实施例中,获取针对音频数据输出的性别识别结果和情绪识别结果,可以包括针对音频数据获取性别识别的中间数据和情绪识别的中间数据;基于性别识别的中间数据和情绪识别的中间数据获取针对音频数据的情绪识别结果,基于性别识别的中间数据湖区针对音频数据的性别识别结果。
[0050]本实施例中,标注结果可以包括性别标注结果和本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种模型生成方法,包括:将音频数据输入待训练的识别模型,获取针对所述音频数据输出的性别识别结果和情绪识别结果;基于所述性别识别结果、所述情绪识别结果和标注结果,调整所述待训练的识别模型,得到情绪识别模型。2.根据权利要求1所述的方法,其中,所述将音频数据输入待训练的识别模型,获取针对所述音频数据输出的性别识别结果和情绪识别结果,包括:采用所述待训练的识别模型的前处理层,根据所述音频数据获取至少融合了情绪信息和性别信息的第一数据;采用所述待训练的识别模型的性别识别输出层,根据所述第一数据获得所述性别识别结果;采用所述待训练的识别模型的情绪识别输出层,根据所述第一数据获得所述情绪识别结果。3.根据权利要求2所述的方法,其中,所述根据所述音频数据获取至少融合了情绪信息和性别信息的第一数据,包括:对所述音频数据进行频域信息提取,获取第二数据;对所述第二数据进行卷积和池化计算,获取第三数据;采用双向长短期记忆神经网络对所述第三数据进行处理,获取第四数据;对所述第四数据进行自注意力权值计算,获取所述第一数据。4.根据权利要求1

3中任意一项所述的方法,其中,所述方法还包括通过以下方式获取所述音频数据:对获取到的原始音频数据进行预处理,得到预处理结果;对所述预处理结果进行数据增强操作,获取所述原始音频数据的增强数据;将所述原始音频数据以及所述增强数据,作为所述音频数据。5.根据权利要求4所述的方法,其中,在所述数据增强操作为差分增强操作的情况下,所述对所述预处理结果进行数据增强操作,获取所述原始音频数据的增强数据,包括:提取所述原始音频数据的目标音频特征;对所述目标音频特征执行差分增强操作,获取所述原始音频数据的增强数据。6.根据权利要求4或5所述的方法,其中,所述对获取到的原始音频数据进行预处理,得到预处理结果,包括:对所述原始音频数据执行下述操作至少之一,以对所述原始音频数据进行预处理:改变所述原始音频数据的播放速率;在所述原始音频数据中添加混响;去除所述原始音频数据中的噪音;对所述原始音频数据进行时域通道掩盖操作;对所述原始音频数据进行频域通道掩盖操作。7.根据权利要求1

6中任意一项所述的方法,其中,所述基于所述性别识别结果、所述情绪识别结果和标注结果,调整所述待训练的识别模型,包括:基于所述性别识别结果、所述情绪识别结果和所述标注结果进行损失计算,获取损失
值;根据所述损失值,调整所述待训练的识别模型。8.根据权利要求7所述的方法,其中,所述标注结果包括性别标注结果和情绪标注结果,所述基于所述性别识别结果、所述情绪识别结果和所述标注结果进行损失计算,获取损失值,包括:基于所述性别标注结果和性别识别结果,进行交叉熵损失计算,获取第一损失值;基于所述情绪标注结果和情绪识别结果,进行交叉熵损失计算,获取第二损失值;对所述第一损失值和所述第二损失值进行加权求和,将求和结果作为所述损失值。9.一种情绪识别方法,包括:将待识别的音频数据输入识别模型,得到情绪识别结果,所述识别模型为权利要求1

8中任意一项所述的情绪识别模型。10.一种模型生成装置,包括:识别模块,用于将音频数据输入待训练的识别模型,获取针对所述音频数据输出的性别识别结果和情绪识别结果;训练模块,用于基于所述性别识别结果、所述情绪识别结果和标注结果,调整所述待训练的识别模型,得到情绪识别模型...

【专利技术属性】
技术研发人员:赵情恩
申请(专利权)人:北京百度网讯科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1