训练方法及装置、情感识别方法及装置、电子设备制造方法及图纸

技术编号:37374292 阅读:23 留言:0更新日期:2023-04-27 07:18
本公开提供了一种训练方法及装置、情感识别方法及装置、电子设备,该训练方法首先通过语音合成引擎生成带有情感的音频数据,对音频数据进行特征提取,得到音频特征,将音频特征输入训练好的声纹模型,得到声纹信息嵌入码,依据声纹信息嵌入码训练情感分类模型,训练得到的情感分类模型能够识别发音人声音的情感和风格,并且识别的准确率较高,在使用测试集对训练好的情感分类模型进行测试时,情感和风格的分类准确率能够达到97%。格的分类准确率能够达到97%。格的分类准确率能够达到97%。

【技术实现步骤摘要】
训练方法及装置、情感识别方法及装置、电子设备


[0001]本公开涉及计算机
,尤其涉及训练方法及装置、情感识别方法及装置、电子设备。

技术介绍

[0002]目前的情感识别的方法主要是采用深度学习的方式,例如根据语音数据训练得到情感分类器,利用情感分类器进行情感识别。在实现本公开的过程中,专利技术人发现,上述情感识别方式存在有标注语音情感数据缺乏的问题和情感较为主观与模糊的问题。
[0003]需要说明的是,本
技术介绍
部分中公开的信息仅用于理解本公开构思的
技术介绍
,并且因此,它可以包含不构成现有技术的信息。

技术实现思路

[0004]为了解决上述技术问题中的至少一个,本公开提供了训练方法及装置、情感识别方法及装置、电子设备。
[0005]本公开第一方面提出了一种情感分类模型的训练方法,包括:通过语音合成引擎生成带有情感的音频数据;对所述音频数据进行特征提取,得到音频特征;将所述音频特征输入训练好的声纹模型,得到声纹信息嵌入码;依据所述声纹信息嵌入码训练所述情感分类模型。
[0006]根据本公开的一个实施本文档来自技高网...

【技术保护点】

【技术特征摘要】
1.一种情感分类模型的训练方法,其特征在于,包括:通过语音合成引擎生成带有情感的音频数据;对所述音频数据进行特征提取,得到音频特征;将所述音频特征输入训练好的声纹模型,得到声纹信息嵌入码;依据所述声纹信息嵌入码训练所述情感分类模型。2.根据权利要求1所述的方法,其特征在于,在将所述音频特征输入所述声纹模型之前,所述方法还包括:依据音频数据训练集对声纹模型进行训练。3.根据权利要求2所述的方法,其特征在于,所述声纹模型为ECAPA

TDNN声纹模型。4.根据权利要求1所述的方法,其特征在于,对所述音频数据进行特征提取,得到音频特征,包括:对所述音频数据依次进行分帧、加窗、短时傅里叶变换和Mel滤波,得到音频特征。5.根据权利要求1所述的方法,其特征在于,所述语音合成引擎为带有情感和发音风格的语音合成引擎,所述语音合成引擎生成的所述音频数据为带有情感和发音风格的音频数据。6.根据权利要求1所述的方法,其特征在于,所述情感分类模型为DNN情感分类器。7.一种情感分类模型的训练装置,其特征在于,包括:音频数据生成模块,被配置为通过语音合成引擎生...

【专利技术属性】
技术研发人员:宋熙康李媛媛
申请(专利权)人:上海墨百意信息科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1