一种基于AI教育系统的表情识别方法技术方案

技术编号:38685289 阅读:23 留言:0更新日期:2023-09-02 22:58
本发明专利技术公开了人脸识别技术领域的一种基于AI教育系统的表情识别方法,包括:S1、图像采集模块获取听课用户在不同表情下的脸部图像信号;S2、服务器对数字信号进行感知处理;S3、服务器重组二维图像信号得到具备高分辨率特征的重组图像块;S4、基于重组图像模块构建人脸识别模型,分析判断模块对听课用户进行身份验证;S5、对验证通过的听课用户进行听课监测,服务器基于听课用户的表情变化判断专注度。本方案对数据进行小波滤波处理和压缩感知处理,降低了噪声对图像数据分辨率的影响,对感知处理后的图像数据进行重组,以重组图像块构建的人脸识别模型对听课用户的表情进行识别判断,提高了识别的准确性。提高了识别的准确性。提高了识别的准确性。

【技术实现步骤摘要】
一种基于AI教育系统的表情识别方法


[0001]本专利技术属于人脸识别
,具体是一种基于AI教育系统的表情识别方法。

技术介绍

[0002]随着科学技术的迅猛发展,人脸识别技术在日常生活中也运用的越来越普遍,例如日常消费时的刷脸支付,乘坐火车、动车时的刷脸验证,门禁系统的刷脸通行,很显然,科技改变了我们的生活,也改变了我们的行为习惯,由于人脸识别中获取的实时表情关系到人脸识别是否通过,因此研究出了诸多表情识别方法。
[0003]例如中国专利,公布号为CN114565960A的专利公开了一种人脸表情识别方法,包括:步骤1、采集人脸表情图像;步骤2、图像预处理;步骤3、将预处理后的图像分成训练表情样本和测试表情样本;步骤4、人脸表情特征提取与特征降维,得到;步骤5、训练人脸表情识别模型;步骤6、将降维得到的测试表情样本的特征值输入人脸表情识别模型进行识别,得到识别结果。
[0004]该方法在预处理图像后,通过层次分类法,将多个支持向量机进行组合以得到人脸表情识别模型,但是在进行AI教育时,由于光照干扰,获取的图像信号存在较大的噪声导致图像分辨率差异,该方法采用PCA算法对原始数据进行特征降维,无法消除因光照影响导致的图像分辨率差异,进而影响表情识别的准确性,因此,我们提出了一种基于AI教育系统的表情识别方法。

技术实现思路

[0005]为了解决上述问题,本专利技术的目的是提供一种基于AI教育系统的表情识别方法。
[0006]为了实现上述目的,本专利技术的技术方案如下:一种基于AI教育系统的表情识别方法,包括如下步骤:
[0007]S1、图像采集模块获取听课用户在不同表情下的脸部图像信号,传递至服务器并进行A/D转化得到数字信号;
[0008]S2、服务器对数字信号进行感知处理,将数字化的一维离散信号转化为二维图像信号;
[0009]S3、服务器重组二维图像信号得到具备高分辨率特征的重组图像块,具体如下:
[0010]S31、服务器对二维图像信号做均值处理,以处理后的二维图像信号的像素值作为特征向量,构建特征向量训练集;
[0011]S32、设L、H分别表示低分辨率和高分辨率的特征向量训练集,将L分割为若干块,以l为中心,提取l的相似图像块;
[0012]S32、对l的相似图像块进行特征向量提取,并进行归一化处理;
[0013]S33、根据l的相似图像块的特征向量,分别在L和H内获取低分辨率图像块和对应的高分辨率图像块;
[0014]S34、分别计算低分辨率图像块和高分辨率图像块的权重值,对低分辨率图像块和
高分辨率图像块进行线性重组,得到具备高分辨率特征的重组图像块;
[0015]S4、基于重组图像模块构建人脸识别模型,分析判断模块对听课用户进行身份验证;
[0016]S5、对验证通过的听课用户进行听课监测,服务器基于听课用户的表情变化判断专注度。
[0017]进一步,所述S1中不同表情下的脸部图像信号包括无表情、高兴和生气表情下的脸部图像信号。
[0018]进一步,所述S1中脸部图像信号的采集区域包括左眼和嘴唇,眼睛和眉毛,嘴唇和眉毛中心点,眉毛和鼻子,鼻子和嘴唇,眉毛、眼睛和鼻子,鼻子中心点和嘴角,右眼睛和嘴唇,纯嘴唇和纯眼睛。
[0019]进一步,所述S2在压缩感知处理之前,采用小波滤波模块利用傅里叶变换FFT滤波对数字化的一维离散信号进行平滑处理。
[0020]进一步,所述S2中压缩感知处理具体如下:将平滑处理后的数字化的一维离散信号划分为若干子块,利用高斯白噪声进行正交变换得到二维图像信号。
[0021]进一步,所述S4中分析判断模块对听课用户进行身份验证具体为:
[0022]若获取的听课用户的实时表情处于人脸识别模型预测区间,则验证通过,判定为听课用户本人;
[0023]若获取的听课用户的实时表情不处于人脸识别模型预测区间,则向听课用户发送二次身份验证指令:
[0024]若二次身份验证时的实时表情处于人脸识别模型预测区间,则验证通过,判定为听课用户本人,并将第一次验证时的表情进行迁移学习;
[0025]若二次身份验证时的实时表情不处于人脸识别模型预测区间,则验证失败,判断为非听课用户本人,并做缺课记录。
[0026]进一步,所述S5中服务器对听课用户的表情采用相似性测量进行关联计算,根据累计的关联值划定专注度区间,专注度区间包括I级、II级和III级:
[0027]当听课用户的专注度处于I级,判断听课用户处于认真听课状态;
[0028]当听课用户的专注度处于II级,判断听课用户处于注意力分散状态;
[0029]听课用户的专注度处于III级,判断听课用户处于未听课状态。
[0030]进一步,基于AI教育系统的表情识别方法采用的表情识别系统,表情识别系统包括信号连接的服务器、存储器、图像采集模块、分析判断模块和小波滤波模块:
[0031]服务器用于指令的接收和下发、表情处理的逻辑运算;
[0032]存储器用于数据的存储;
[0033]图像采集模块用于获取听课用户的脸部图像信号;
[0034]分析判断模块用于听课用户的身份验证和专注度分析;
[0035]小波滤波模块用于对图像数据的平滑处理。
[0036]采用上述方案后实现了以下有益效果:
[0037]1.相较于现有技术采用PCA算法对原始数据进行特征降维,无法消除因光照影响导致的图像分辨率差异,进而影响表情识别的准确性,本方案对数据进行小波滤波处理和压缩感知处理,提高了数据的峰值信噪比数值,降低了噪声对图像数据分辨率的影响,对感
知处理后的图像数据进行重组,得到具备高分辨率特征的重组图像块,以重组图像块构建的人脸识别模型对听课用户的表情进行识别判断,提高了识别的准确性;
[0038]2.本方法不仅降低了光照干扰对图像分辨率的影响,同时,基于本方法对听课用户进行专注度监测,提高了专注度监测的准确性。
附图说明
[0039]图1为本专利技术实施例的流程示意图。
[0040]图2为本专利技术实施例的表情识别系统的模块示意图。
具体实施方式
[0041]下面通过具体实施方式进一步详细说明:
[0042]实施例基本如附图1

图2所示:
[0043]表情识别系统包括信号连接的服务器、存储器、图像采集模块、分析判断模块和小波滤波模块:
[0044]服务器用于指令的接收和下发、表情处理的逻辑运算;
[0045]存储器用于数据的存储;
[0046]图像采集模块用于获取听课用户的脸部图像信号;
[0047]分析判断模块用于听课用户的身份验证和专注度分析;
[0048]小波滤波模块用于对图像数据的平滑处理。
[0049]具体实施过程如下:
[0050]S1、图像采集模块获取听课用户在不同表情下的本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于AI教育系统的表情识别方法,其特征在于:包括如下步骤:S1、图像采集模块获取听课用户在不同表情下的脸部图像信号,传递至服务器并进行A/D转化得到数字信号;S2、服务器对数字信号进行感知处理,将数字化的一维离散信号转化为二维图像信号;S3、服务器重组二维图像信号得到具备高分辨率特征的重组图像块,具体如下:S31、服务器对二维图像信号做均值处理,以处理后的二维图像信号的像素值作为特征向量,构建特征向量训练集;S32、设L、H分别表示低分辨率和高分辨率的特征向量训练集,将L分割为若干块,以l为中心,提取l的相似图像块;S32、对l的相似图像块进行特征向量提取,并进行归一化处理;S33、根据l的相似图像块的特征向量,分别在L和H内获取低分辨率图像块和对应的高分辨率图像块;S34、分别计算低分辨率图像块和高分辨率图像块的权重值,对低分辨率图像块和高分辨率图像块进行线性重组,得到具备高分辨率特征的重组图像块;S4、基于重组图像模块构建人脸识别模型,分析判断模块对听课用户进行身份验证;S5、对验证通过的听课用户进行听课监测,服务器基于听课用户的表情变化判断专注度。2.根据权利要求1所述的基于AI教育系统的表情识别方法,其特征在于:所述S1中不同表情下的脸部图像信号包括无表情、高兴和生气表情下的脸部图像信号。3.根据权利要求2所述的基于AI教育系统的表情识别方法,其特征在于:所述S1中脸部图像信号的采集区域包括左眼和嘴唇,眼睛和眉毛,嘴唇和眉毛中心点,眉毛和鼻子,鼻子和嘴唇,眉毛、眼睛和鼻子,鼻子中心点和嘴角,右眼睛和嘴唇,纯嘴唇和纯眼睛。4.根据权利要求3所述的基于AI教育系统的表情识别方法,其特征在于:所述S2在压缩感知处理之前,采用小波滤波模块利用傅里叶变换FFT滤波对数字化的一维离散信号进行平...

【专利技术属性】
技术研发人员:彭振龙黄幼岚夏侯建兵
申请(专利权)人:泉州师范学院
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1