【技术实现步骤摘要】
本专利技术涉及深度学习,特别涉及一种基于面部特征与语音特征的情绪识别方法。
技术介绍
1、人机交互的过程中,让机器真正看的懂、听的懂情感丰富的人类的情绪状态,不仅可以帮助心理医生通过对病人情绪的判断来掌握病人的心理状态,更好的进行心理治疗,还可以通过观众的反应对广告效果做出评估、识别驾驶员驾驶状态以触发应急措施进行干预等。
2、早期关于情绪识别的研究中,研究者们将表情定义为六种基本的情绪:开心、悲伤、惊讶、害怕、厌恶、生气,并通过让相关研究人员或专业的演员在实验室条件下进行摆拍获得不同类别表情的方式构建数据集。但随着研究的深入,人们发现通过上述的方式进行情绪识别的研究存在弊病:人可以通过控制自己的面部表情来隐藏自己的情绪,基于单一视觉模态很难有效对情绪进行识别。针对以上弊病,目前情绪识别也逐步偏向于面部表情+语音多模态背景下的研究。
3、基于面部表情+语音多模态的情绪识别中,确定每种特征对情绪的影响大小是一个复杂的问题,某种情况下面部表情可能更具信息量,而在其他情况下,语音特征可能更为重要,因此如何获得鲁棒性更强
...【技术保护点】
1.一种基于面部特征与语音特征的情绪识别方法,其特征在于,包括:
2.根据权利要求1所述的基于面部特征与语音特征的情绪识别方法,其特征在于,所述语音特征值的获取,包括:
3.根据权利要求2所述的基于面部特征与语音特征的情绪识别方法,其特征在于,所述获得每帧音频信号的所有梅尔倒谱系数MFCC,包括:
4.根据权利要求2所述的基于面部特征与语音特征的情绪识别方法,其特征在于,所述面部特征值的获取,包括:
5.根据权利要求4所述的基于面部特征与语音特征的情绪识别方法,其特征在于,所述多任务卷积神经网络,包括:
6.
...【技术特征摘要】
1.一种基于面部特征与语音特征的情绪识别方法,其特征在于,包括:
2.根据权利要求1所述的基于面部特征与语音特征的情绪识别方法,其特征在于,所述语音特征值的获取,包括:
3.根据权利要求2所述的基于面部特征与语音特征的情绪识别方法,其特征在于,所述获得每帧音频信号的所有梅尔倒谱系数mfcc,包括:
4.根据权利要求2所述的基于面部特征与语音特征的情绪识别方法,其特征在于,所述面部特征值的获取,包括:
5.根据权利要求4所述的基于面部特征与语音特征的情绪识别方法,其特征在于,所述多任务卷积神经网络,包括:
...【专利技术属性】
技术研发人员:武圣君,刘旭峰,王秀超,王卉,方鹏,谢康宁,李国新,胡敏花,杨梦圆,张芫蓓,蒲昭君,
申请(专利权)人:中国人民解放军空军军医大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。