一种在线教育的专注度综合评判系统技术方案

技术编号:37983342 阅读:8 留言:0更新日期:2023-06-30 09:58
本发明专利技术涉及一种在线教育的专注度综合评判系统,属于信息技术领域。包括图像采集模块、专注度评测模块和用户交互模块,所述图像采集模块用于获取学生在听课时的图像信息,将采集到的图像与特征点送入专注度评测模块进行专注度评估,所得的专注度得分将作为结果输入到用户交互模块,所述用户交互模块将所得到的结果记录到学生专注度表中;学生通过向系统发送查询请求来查看该同学每堂的专注度评估结果。本发明专利技术的综合评判系统使用AHP模型对所得的多项指标进行综合分析,将多项专注度数据进行整合,使得结果更加全面;将专注度评分进行百分化处理,使得最终得到的专注度评分更加直观。使得最终得到的专注度评分更加直观。使得最终得到的专注度评分更加直观。

【技术实现步骤摘要】
一种在线教育的专注度综合评判系统


[0001]本专利技术涉及信息
,具体涉及一种在线教育的专注度综合评判系统。

技术介绍

[0002]线上教育是教育现代化的重要组成部分,而其理念与技术的不断完善与普及主要得益于社会环境的支持、相关软件平台的构建以及教育心理学的发展。近几年,线上教育成为中小学、高校等教育机构的主要授课形式,其安全性、便捷性得到了公众的广泛认可。同时,其他的非实时、无直接互动的线上教育方式,以其灵活性、可重复播放性而受到部分学生与教师的推崇。但是,如何在线上课程中,学生的专注度关系到授课质量的高低,如何即时观察和评价学生的关注度至关重要。
[0003]近年来,随着对人工智能领域研究的深入,通过机器学习及深度学习的方式识别并提取人面部特征点以不再困难。通过特定的机器学习工具,输入预先训练好的模型,可以完成对于人体面部特征点的提取工作。通过卷积神经网络,输入已有的表情数据集进行训练,可以完成对于人面部表情的识别分类。
[0004]尽管现在通过人工智能提取面部特征点的相关技术以趋于成熟,但是仍缺少相关的算法将所得特征点进行综合分析并评价被测对象的专注度。
[0005]因此需要一种基于人工智能的人面部信息的提取方法以及基于多项数据的综合评判系统。

技术实现思路

[0006]为了克服现有技术存在的一系列缺陷,本专利技术的目的在于提供应用于线上教育的专注度综合评判系统,以解决上述
技术介绍
中提出的问题。
[0007]鉴于专利技术背景中所述原因,本专利技术的目的在于提出一种应用于线上教育的专注度综合评判系统,通过本专利技术提出的四种专注度数据的分析算法,结合AHP综合分析模型可以对采集到的图像数据进行加工,最终得到被测对象的专注度评分,以此来评估学生的课堂学习情况,提高课堂效率。
[0008]本专利技术的一种在线教育的专注度综合评判系统,包括图像采集模块、专注度评测模块和用户交互模块;
[0009]所述图像采集模块用于获取学生在听课时的图像信息,其图像采集方式受到用户交互模块的控制,当图像采集模块得到开始采集图像指令后,获取图像,并提取人脸特征点,并将经过初步处理的图像输送到用户交互模块的可视化界面上,同时也将采集到的图像与特征点送入专注度评测模块进行专注度评估;
[0010]所述专注度评测模块包括行为分析部分、表情识别部分与综合评判部分;其中,所述行为分析部分所使用的专注度信息来源于三种检测算法,分别是:学生注视屏幕情况、学生打哈欠情况和单位时间眼睛闭合的百分比算法(PERCLORS),上述三种算法会将各自的检测结果送往所述综合评判部分用于得出专注度评分,该部分共同构成了系统的行为分析模
块;所述表情识别部分将学生当前的面部表情进行分类,得到表情评分,再将表情评分送往综合评判部分,得到专注度数据,并将专注度数据送入综合评判部分进行评估,得出专注度得分;综合评判部分使用AHP综合分析模型,其根据预置的权重对各项检测数据进行加权,最终可以得到一个能够反应各项输入数据的统合结果;
[0011]由综合评判部分的AHP模型分析所得的专注度得分将作为结果输入到用户交互模块,所述用户交互模块将所得到的结果记录到学生专注度表中;学生通过向系统发送查询请求来查看该同学每堂的专注度评估结果。
[0012]优选地,所述学生当前的面部表情的分类包括生气、恐惧、快乐、厌恶、中性、惊讶、伤心,统计以上七种表情的出现次数,将这七种表情的数据送入综合评判部分进行初步统计。
[0013]优选地,所述专注度数据包括注视屏幕情况、打哈欠情况、PERCLORS和表情信息。
[0014]优选地,老师可以向系统上传学生的课堂录像,用于检测该同学的专注度情况,也可以查看学生每堂课的专注度情况。
[0015]本专利技术的在线教育的专注度综合评判系统具有以下有益效果:
[0016](1)通过AHP模型进行综合分析,将多项专注度数据进行整合,使得结果更加全面;
[0017](2)将专注度评分进行百分化处理,使得最终得到的专注度评分更加直观。
附图说明
[0018]图1是本专利技术的整体系统框架图;
[0019]图2是本专利技术的图像采集模块的数据流程图;
[0020]图3是本专利技术的专注度评测模块的数据流程图;
[0021]图4是本专利技术的用户交互模块功能示意图;
[0022]图5是本专利技术中人体特征点的分布示意图;
[0023]图6是本专利技术中对嘴部特征点提取示意图;
[0024]图7是本专利技术中将特征点可视化标识到被测对象对应的肢体部位后的结果示意图。
具体实施方式
[0025]为使本专利技术实施的目的、技术方案和优点更加清楚,下面将结合本专利技术实施例中的附图,对本专利技术实施例中的技术方案进行更加详细的描述。在附图中,自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。所描述的实施例是本专利技术一部分实施例,而不是全部的实施例。下面通过参考附图描述的实施例以及方位性的词语均是示例性的,旨在用于解释本专利技术,而不能理解为对本专利技术的限制。基于本专利技术中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本专利技术保护的范围。下面结合附图对本专利技术的实施例进行详细说明。
[0026]本专利技术提出了一种应用于线上教育的专注度综合评判系统,首先通过前置摄像头等摄像设备获取学生听课时的录像;其次,通过机器学习的方式对获取到的录像进行处理,识别、提取学生的面部信息;第三,提出四种专注度数据提取算法,通过输入得到的面部信息,可以得到算法对应的专注度数据,包括注视屏幕情况、打哈欠情况、单位时间眼睛闭合
的百分比算法(PERCLORS),表情信息;最后,提出一种综合评判模型,将收集到的多项专注度数据进行综合评判,得出专注度评分,用于反应学生的课堂专注情况。
[0027]如图1所示,为本专利技术专注度分析系统的整体框架图,该系统包括图像采集模块、专注度评测模块和用户交互模块,所述图像采集模块、专注度评测模块和用户交互模块的功能相互独立,但实际工作中却彼此联系。
[0028]各模块的工作方式如下。
[0029]图2示出了本专利技术中图像采集模块的数据流程图,所述图像采集模块的主要功能是获取学生在听课时的图像信息,该模块的图像采集方式受到用户交互模块的控制,用户可以通过系统的可视化交互界面,选择“摄像机采集图像”或是“上传已录制的视频采集图像”两种图像采集形式,并通过交互按钮向图像采集模块发出开始采集图像信息的指令。当图像采集模块得到开始采集图像指令后,会通过OpenCV获取图像,并通过Dilib算法提取人脸特征点,并将经过初步处理的图像输送到用户交互模块的可视化界面上,同时也将采集到的图像与特征点送入专注度评测模块进行专注度评估。
[0030]图3示出了专注度评测模块的数据流程图,所述专注度评测模块包括专注度信息部分、表情识别部分与综合评判部分。其中,所述专注度信息部分包括三种算本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种在线教育的专注度综合评判系统,其特征在于,包括图像采集模块、专注度评测模块和用户交互模块;所述图像采集模块用于获取学生在听课时的图像信息,其图像采集方式受到用户交互模块的控制,当图像采集模块得到开始采集图像指令后,获取图像,并提取人脸特征点,并将经过初步处理的图像输送到用户交互模块的可视化界面上,同时也将采集到的图像与特征点送入专注度评测模块进行专注度评估;所述专注度评测模块包括行为分析部分、表情识别部分与综合评判部分;其中,所述行为分析部分所使用的专注度信息来源于三种检测算法,分别是:学生注视屏幕情况、学生打哈欠情况和单位时间眼睛闭合的百分比算法,上述三种算法会将各自的检测结果送往所述综合评判部分用于得出专注度评分,该部分共同构成了系统的行为分析模块;所述表情识别部分将学生当前的面部表情进行分类,得到表情评分,再将表情评分送往综合评判部分,得到专注度数据,并将专注度数据送入综合评判部分进行评估,得出专注度得分;综合评判部分使...

【专利技术属性】
技术研发人员:史银雪黎绍峰朱婷婷
申请(专利权)人:中国农业大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1