一种基于面部特征与语音特征的情绪识别方法技术

技术编号:40036659 阅读:47 留言:0更新日期:2024-01-16 19:04
本发明专利技术公开一种基于面部特征与语音特征的情绪识别方法,涉及特征融合技术领域,包括:对采集的包含有面部信号和语音信号的音视频进行分帧,提取每帧的语音特征值和面部特征值;根据情绪种类构建K均值聚类数目集,从K均值聚类数目集合中确定最优聚类数目;使用最优聚类数目k<subgt;best</subgt;把语音特征值和面部特征值聚为不同的簇,将既含有面部特征值也含有语音特征值的簇作为融合特征;将融合特征输入到情绪识别模块中,输出情绪识别结果。本发明专利技术引入k均值算法对表情特征和语音特征进行融合,将不同感知模式的信息融合,有助于捕捉模态之间的互补信息。将该类作为情绪识别模型的输入有助于情绪识别模型输出更准确的情绪识别结果。

【技术实现步骤摘要】

本专利技术涉及深度学习,特别涉及一种基于面部特征与语音特征的情绪识别方法


技术介绍

1、人机交互的过程中,让机器真正看的懂、听的懂情感丰富的人类的情绪状态,不仅可以帮助心理医生通过对病人情绪的判断来掌握病人的心理状态,更好的进行心理治疗,还可以通过观众的反应对广告效果做出评估、识别驾驶员驾驶状态以触发应急措施进行干预等。

2、早期关于情绪识别的研究中,研究者们将表情定义为六种基本的情绪:开心、悲伤、惊讶、害怕、厌恶、生气,并通过让相关研究人员或专业的演员在实验室条件下进行摆拍获得不同类别表情的方式构建数据集。但随着研究的深入,人们发现通过上述的方式进行情绪识别的研究存在弊病:人可以通过控制自己的面部表情来隐藏自己的情绪,基于单一视觉模态很难有效对情绪进行识别。针对以上弊病,目前情绪识别也逐步偏向于面部表情+语音多模态背景下的研究。

3、基于面部表情+语音多模态的情绪识别中,确定每种特征对情绪的影响大小是一个复杂的问题,某种情况下面部表情可能更具信息量,而在其他情况下,语音特征可能更为重要,因此如何获得鲁棒性更强、更具有代表性的综合本文档来自技高网...

【技术保护点】

1.一种基于面部特征与语音特征的情绪识别方法,其特征在于,包括:

2.根据权利要求1所述的基于面部特征与语音特征的情绪识别方法,其特征在于,所述语音特征值的获取,包括:

3.根据权利要求2所述的基于面部特征与语音特征的情绪识别方法,其特征在于,所述获得每帧音频信号的所有梅尔倒谱系数MFCC,包括:

4.根据权利要求2所述的基于面部特征与语音特征的情绪识别方法,其特征在于,所述面部特征值的获取,包括:

5.根据权利要求4所述的基于面部特征与语音特征的情绪识别方法,其特征在于,所述多任务卷积神经网络,包括:

6.根据权利要求4所述的...

【技术特征摘要】

1.一种基于面部特征与语音特征的情绪识别方法,其特征在于,包括:

2.根据权利要求1所述的基于面部特征与语音特征的情绪识别方法,其特征在于,所述语音特征值的获取,包括:

3.根据权利要求2所述的基于面部特征与语音特征的情绪识别方法,其特征在于,所述获得每帧音频信号的所有梅尔倒谱系数mfcc,包括:

4.根据权利要求2所述的基于面部特征与语音特征的情绪识别方法,其特征在于,所述面部特征值的获取,包括:

5.根据权利要求4所述的基于面部特征与语音特征的情绪识别方法,其特征在于,所述多任务卷积神经网络,包括:

...

【专利技术属性】
技术研发人员:武圣君刘旭峰王秀超王卉方鹏谢康宁李国新胡敏花杨梦圆张芫蓓蒲昭君
申请(专利权)人:中国人民解放军空军军医大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1