一种基于表情识别的自闭症拥抱机体验评价方法及系统技术方案

技术编号:21433253 阅读:19 留言:0更新日期:2019-06-22 12:14
本发明专利技术提供了一种基于表情识别的自闭症拥抱机体验评价方法及系统,通过开发一款手机App,获取用户在使用不同类型(滚筒颜色、滚筒材质、滚筒宽度、滚筒直径、机架长、宽、高等参数不同)的拥抱机过程视频(可以通过手机App现场拍摄或者读取视频文件)传输到云端;在云端把该视频分解成连续的系列照片;应用人脸识别技术,识别该系列照片对应的人脸表情类型,获得表情随时间变化的代码向量,在云平台上,通过BP神经网络建立用户体验数据与对应用户体验过程评分的复杂非线性关系模型;进行视频的录入即可自动获得该用户体验过程的用户体验评价结果,作为企业进行自闭症拥抱机产品升级优化的依据。

【技术实现步骤摘要】
一种基于表情识别的自闭症拥抱机体验评价方法及系统
本专利技术涉及大数据领域,具体涉及一种基于表情识别的自闭症拥抱机体验评价方法及系统。
技术介绍
如今,正值心理健康危机日益严重的时期,尤其是年轻人。根据2015年的《高等教育纪事报》的一份报道中指出,自杀是大学生死亡的第二大杀手,仅次于交通事故;自1999年以来,美国的整体自杀率飙升了约25%。针对那些患有自闭症、SPD(感觉紊乱)、抑郁症、发育迟缓人群或者仅仅是压力过大的用户。有研究表明,借助外物适度挤压身体能够极大缓解焦虑情绪舒缓压力,像拥抱机这样声称能够通过背腹双侧按摩减轻心理压力,改善肢体运动能力,能够有效减轻患者普遍存在的紧张情绪,让用户在放松的状态下更容易学会与他人的互动交流。嵌入情绪识别系统,将患者体验过程中的情绪变化进行采集、计算、分析,在大多情况下还是可以作为企业进行自闭症拥抱机产品升级优化的依据。现有技术在拥抱机产品优化改进过程中,工程技术人员不能快速获取改进型拥抱机的用户体验数据,不能对产品优化结果做出快速评价。
技术实现思路
为了解决现在产品研发过程中,研发人员不能快速获取改进型拥抱机用户体验数据的问题,本申请提供一种基于表情识别的自闭症拥抱机体验评价方法,包括以下步骤S1:采集用户使用拥抱机的第一过程视频,依据所述第一过程视频得到第一过程系列照片,对所述第一过程系列照片进行人脸识别得到用户人脸表情向量,依据所述用户人脸表情向量得到输入矩阵,;S2:采集用户调查数据,依据所述用户调查数据得到结果矩阵Y,构建的BP神经网络,采用所述输入矩阵和所述结果矩阵对BP神经网络进行训练。S3:采集用户使用拥抱机的第二过程视频,采用训练完成的BP神经网络对所述用户使用拥抱机的第二过程视频进行分析并获取用户体验数据。进一步的,所述步骤S1包括,S11:以横坐标为时间,纵坐标为表情类型代码生成用户人脸表情向量随时间变化的二维表情谱,其中,“愤怒”对应的表情向量为[0,0,0,0,0,0,1]T、“厌恶”对应的表情向量为[0,0,0,0,0,2,0]T、“恐惧”对应的表情向量为[0,0,0,0,3,0,0]T、“高兴”对应的表情向量为[0,0,0,4,0,0,0]T、“伤心”对应的表情向量为[0,0,5,0,0,0,0]T、“惊讶”对应的表情向量为[0,6,0,0,0,0,0]T、“无情绪”对应的表情向量为[7,0,0,0,0,0,0]T,采用表情谱得到矩阵A=[e1,e2,e3,…,en]7×n;S12:将矩阵A进行转置变换得到AT=[e1,e2,e3,…,en]n×7;S13:构造矩阵M=A·AT;S14:计算矩阵M的特征值,生成矩阵M的特征值矩阵λ=[λ1,λ2,λ3,…,λ7]1×7;S15:生成输入矩阵X=[λ,N,B]1×9,其中N为年龄,B为性别。进一步的,设置所述BP神经网络的隐含层节点数为l,隐含层节点函数为S型函数tansig,输出层节点数与输出变量个数一致;设置输出层节点函数为线性函数purelin,输入层到隐含层的权值为w1,隐含层节点阈值为b1,隐含层至输出层的权值为w2,输出层节点阈值为b2。进一步的,所述步骤S2包括以下步骤,S21:初始化神经网络参数的权值W1、W2以及阈值b1、b2;S22:初始化的网络参数采用如下公式计算此时的其中,表示预测值;W1、W2分别表示神经网络参数的权值;b1、b2分别表示神经网络参数的阈值;表示经归一化的输入样本;S23:计算此时实际样本输出与预测值之间系统对N个训练样本的总误差,总误差e准则函数如下:其中,e表示误差性能指标函数;表示BP网络输出;表示实际输出;S24:修正神经网络参数的权值和阈值,具体公式如下:其中,w1ij表示隐含层与输入层的连接权值;η表示学习速率;表示隐含层输出;x(i)表示输入样本;wjk表示输出层与隐含层权值;其中,w2jk表示输出层与隐含层的连接权值;其中,表示隐含层阈值;表示隐含层输出;wjk表输出层与隐含层权值;b2=b2+ηe其中,i=1,2,…,n;j=1,2,…,l;k=1,2,…,N;N为样本量;S25:利用更新得到的神经网络参数的权值和阈值重新估计重复第二步至第四步的过程,直到总误差小于设定值。进一步的,所述步骤S3还包括,将用户体验数据发送至管理员移动终端并进行展示。为了保证上述方法的实施,本专利技术还提供一种基于表情识别的自闭症拥抱机体验评价系统,其特征在于,包括以下模块采集模块,用于采集用户使用拥抱机的第一过程视频,依据所述第一过程视频得到第一过程系列照片,对所述第一过程系列照片进行人脸识别得到用户人脸表情向量,依据所述用户人脸表情向量得到输入矩阵,;训练模块,用于采集第一用户调查数据,依据所述第一用户调查数据得到结果矩阵Y,构建的BP神经网络,采用所述输入矩阵和所述结果矩阵对BP神经网络进行训练。结果输出模块,用于采集用户使用拥抱机的第二过程视频,采用训练完成的BP神经网络对所述用户使用拥抱机的第二过程视频进行分析并获取存储用户体验数据。进一步的,所述采集模块采用以下步骤获取输入矩阵,S11:以横坐标为时间,纵坐标为表情类型代码生成用户人脸表情向量随时间变化的二维表情谱,其中,“愤怒”对应的表情向量为[0,0,0,0,0,0,1]T、“厌恶”对应的表情向量为[0,0,0,0,0,2,0]T、“恐惧”对应的表情向量为[0,0,0,0,3,0,0]T、“高兴”对应的表情向量为[0,0,0,4,0,0,0]T、“伤心”对应的表情向量为[0,0,5,0,0,0,0]T、“惊讶”对应的表情向量为[0,6,0,0,0,0,0]T、“无情绪”对应的表情向量为[7,0,0,0,0,0,0]T,采用表情谱得到矩阵A=[e1,e2,e3,…,en]7×n;S12:将矩阵A进行转置变换得到AT=[e1,e2,e3,…,en]n×7;S13:构造矩阵M=A·AT;S14:计算矩阵M的特征值,生成矩阵M的特征值矩阵λ=[λ1,λ2,λ3,…,λ7]1×7;S15:生成输入矩阵X=[λ,N,B]1×9,其中N为年龄,B为性别。进一步的,设置所述BP神经网络的隐含层节点数为l,隐含层节点函数为S型函数tansig,输出层节点数与输出变量个数一致;设置输出层节点函数为线性函数purelin,输入层到隐含层的权值为w1,隐含层节点阈值为b1,隐含层至输出层的权值为w2,输出层节点阈值为b2。进一步的,所述训练模块采用以下步骤,对原始参数进行建模,获取神经网络参数,S21:初始化神经网络参数的权值W1、W2以及阈值b1、b2;S22:初始化的网络参数采用如下公式计算此时的其中,表示预测值;W1、W2分别表示神经网络参数的权值;b1、b2分别表示神经网络参数的阈值;表示经归一化的输入样本;S23:计算此时实际样本输出与预测值之间系统对N个训练样本的总误差,总误差e准则函数如下:其中,e表示误差性能指标函数;表示BP网络输出;表示实际输出;S24:修正神经网络参数的权值和阈值,具体公式如下:其中,w1ij表示隐含层与输入层的连接权值;η表示学习速率;表示隐含层输出;x(i)表示输入样本;wjk表示输出层与隐含层权值;其中,w2jk表示输出层与隐含层的连接权值;其中,表示本文档来自技高网...

【技术保护点】
1.一种基于表情识别的自闭症拥抱机体验评价方法,其特征在于,包括以下步骤S1:采集用户使用拥抱机的第一过程视频,依据所述第一过程视频得到第一过程系列照片,对所述第一过程系列照片进行人脸识别得到用户人脸表情向量,依据所述用户人脸表情向量得到输入矩阵;S2:采集用户调查数据,依据所述用户调查数据得到结果矩阵Y,构建BP神经网络,采用所述输入矩阵和所述结果矩阵对BP神经网络进行训练。S3:采集用户使用拥抱机的第二过程视频,采用训练完成的BP神经网络对所述用户使用拥抱机的第二过程视频进行分析并获取用户体验数据。

【技术特征摘要】
1.一种基于表情识别的自闭症拥抱机体验评价方法,其特征在于,包括以下步骤S1:采集用户使用拥抱机的第一过程视频,依据所述第一过程视频得到第一过程系列照片,对所述第一过程系列照片进行人脸识别得到用户人脸表情向量,依据所述用户人脸表情向量得到输入矩阵;S2:采集用户调查数据,依据所述用户调查数据得到结果矩阵Y,构建BP神经网络,采用所述输入矩阵和所述结果矩阵对BP神经网络进行训练。S3:采集用户使用拥抱机的第二过程视频,采用训练完成的BP神经网络对所述用户使用拥抱机的第二过程视频进行分析并获取用户体验数据。2.如权利要求1所述的一种基于表情识别的自闭症拥抱机体验评价方法,其特征在于,所述步骤S1包括,S11:以横坐标为时间,纵坐标为表情类型代码生成用户人脸表情向量随时间变化的二维表情谱,其中,“愤怒”对应的表情向量为[0,0,0,0,0,0,1]T、“厌恶”对应的表情向量为[0,0,0,0,0,2,0]T、“恐惧”对应的表情向量为[0,0,0,0,3,0,0]T、“高兴”对应的表情向量为[0,0,0,4,0,0,0]T、“伤心”对应的表情向量为[0,0,5,0,0,0,0]T、“惊讶”对应的表情向量为[0,6,0,0,0,0,0]T、“无情绪”对应的表情向量为[7,0,0,0,0,0,0]T,采用表情谱得到矩阵A=[e1,e2,e3,…,en]7×n;S12:将矩阵A进行转置变换得到AT=[e1,e2,e3,…,en]n×7;S13:构造矩阵M=A·AT;S14:计算矩阵M的特征值,生成矩阵M的特征值矩阵λ=[λ1,λ2,λ3,…,λ7]1×7;S15:生成输入矩阵X=[λ,N,B]1×9,其中N为年龄,B为性别。3.如权利要求2所述的一种基于表情识别的自闭症拥抱机体验评价方法,其特征在于,所述步骤S2还包括,设置所述BP神经网络的隐含层节点数为l,隐含层节点函数为S型函数tansig,输出层节点数与输出变量个数一致;设置输出层节点函数为线性函数purelin,输入层到隐含层的权值为w1,隐含层节点阈值为b1,隐含层至输出层的权值为w2,输出层节点阈值为b2。4.如权利要求3所述的一种基于表情识别的自闭症拥抱机体验评价方法,其特征在于,所述步骤S2还包括,S21:初始化神经网络参数的权值W1、W2以及阈值b1、b2;S22:初始化的网络参数采用如下公式计算此时的其中,表示预测值;W1、W2分别表示神经网络参数的权值;b1、b2分别表示神经网络参数的阈值;表示经归一化的输入样本;S23:计算此时实际样本输出与预测值之间系统对N个训练样本的总误差,总误差e准则函数如下:其中,e表示误差性能指标函数;表示BP网络输出;表示实际输出;S24:修正神经网络参数的权值和阈值,具体公式如下:其中,w1ij表示隐含层与输入层的连接权值;η表示学习速率;表示隐含层输出;x(i)表示输入样本;wjk表示输出层与隐含层权值;其中,w2jk表示输出层与隐含层的连接权值;其中,表示隐含层阈值;表示隐含层输出;wjk表输出层与隐含层权值;b2=b2+ηe其中,i=1,2,…,n;j=1,2,…,l;k=1,2,…,N;N为样本量;S25:利用更新得到的神经网络参数的权值和阈值重新估计重复S22步至S24步的过程,直到总误差小于设定值。5.如权利要求4所述的一种基于表情识别的自闭症拥抱机体验评价方法,其特征在于,所述步骤S3还包括,将用户体验数据发送至管理员移动终端并进行展示。6.一种基于表情识别的自闭症拥抱机体验评价系统...

【专利技术属性】
技术研发人员:尹蝶李太福黄星耀张志亮刘雪
申请(专利权)人:重庆科技学院
类型:发明
国别省市:重庆,50

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1