学生课堂听课状态自动识别方法技术

技术编号:22295869 阅读:54 留言:0更新日期:2019-10-15 04:58
本发明专利技术公开一种学生课堂听课状态自动识别方法,通过对Kinect摄像头不断输入的当前帧图像进行处理而得到骨骼结构,再对骨骼结构中的点进行三角连线并判断角度来分析学生的听课状态,大大缩短了识别状态所需时间,具有较好的实时性,同时又能够准确判断课堂中学生的听课状态并能够对异常状态进行记录,对学生课堂听课状态的分析具有很高的实用价值。

Automatic Recognition of Students'Classroom Attendance

【技术实现步骤摘要】
学生课堂听课状态自动识别方法
本专利技术方法涉及一种学生课堂听课状态自动识别方法,尤其是一种实时且准确的学生课堂听课状态自动识别方法。
技术介绍
近年来图像处理技术日益成熟,数字图像处理的方法与学生听课状态的结合也越发的密切,教师可以根据学生的听课状态对自身授课内容进行反思与剖析,故课堂上学生的听课状态一直是教师们关注的焦点。现有的课堂听课状态分析大致分为非实时分析和实时分析两大类。非实时分析是对拍摄的课堂图像进行分析,其优点是效果比较精确,缺点是不具有实时性和随机性。实时分析考虑到了现实因素,但是分析的结果不是很精确。
技术实现思路
本专利技术是为了解决现有技术所存在的上述技术问题,提供一种实时且准确的学生课堂听课状态自动识别方法。本专利技术的技术解决方案是:一种学生课堂听课状态自动识别方法,其特征在于依次按照如下步骤进行:步骤C011:初始化摄像头cam_1和cam_2,初始化编解码器;步骤C012:启动摄像头cam_1和cam_2,摄像头cam_1取学生侧面1帧深度图像,记为cam1_Image,摄像头cam_2取学生正面1帧深度图像,记为cam2_Image,将cam1_Image与cam2_Image传输到PC机并保存,进入步骤C013;若接收到系统结束信号,则关闭系统;步骤C013:PC机调用微软KinectforwindowsSDK2.0中的get_BodyCount()函数,获得cam1_Image中人体头、颈、右肩、右手肘及臀部所在位置的坐标并对相应的点进行命名,头部点为A1,颈部点为B1,右肩点为C1,右手肘点为E1,臀部点为G1;获得cam1_Image中人体头、颈、左肩、右肩、左手肘、右手肘及臀部所在位置的坐标并对相应的点进行命名,头部点为A2,颈部点为B2,左肩点为D2,右肩点为C2,左手肘点为F2,右手肘点为D2,臀部点为G2;步骤C014:对cam1_Image中的点A1与B1,B1与C1,C1与E1,B1与G1连线,生成骨架图,记为Ske1_Image并保存;对cam2_Image中的点A2与B2,B2与C2,C2与E2,B2与D2,D2与F2及B2与G2连线,生成骨架图,记为Ske2_Image并保存;步骤C021:对保存的图像Ske1_Image进行判断,如点B1G1连线延长线与Kinect坐标系x轴的夹角在[60,120],判定为正常行为,进入C022步,否则判定为异常行为并进入C031步;步骤C022:对保存的图像Ske1_Image进行判断,如点A1B1连线延长线与Kinect坐标系x轴的夹角在[60,120],判定为正常行为,进入C023步,否则判断为异常行为并进入C031步;步骤C023:对保存的图像Ske2_Image进行判断,点B2、点D2、F2点所构成的三角形中,点F2的纵坐标如果超过点D2的纵坐标,则∠D2F2B2的值为其测量值的补角值,否则∠D2F2B2的值取其测量值,判断∠D2F2B2的角度,如果取值在[5,90]内,则判定为正常行为,进入C024步,否则,判断为异常行为,进入C031步;步骤C024:对保存的图像Ske2_Image进行判断,点B、点D、点F所构成的三角形中,点F的纵坐标如果大于或等于点D的纵坐标,则∠DFB的值为其测量值的补角值,否则取其测量值;判断∠DFB的角度,如果取值在[5,90],则判定为正常行为,进入C025步,否则,判断为异常行为,进入C031步;步骤C025:对保存的图像Ske2_Image进行判断,点BG连线延长线与Kinect坐标系x轴的夹角在[60,120],判定为正常行为,返回C012步,否则,判断为异常行为,进入C031步;步骤C031:启动cam_1和cam_2的摄像功能录制10秒的视频段,记为wrong_actio1和wrong_actio2并保存,返回C012步。本专利技术通过对Kinect摄像头不断输入的当前帧图像进行处理而得到骨骼结构,再对骨骼结构中的点进行三角连线并判断角度来分析学生的听课状态,大大缩短了识别状态所需时间,具有较好的实时性,同时又能够准确判断课堂中学生的听课状态并能够对异常状态进行记录,对学生课堂听课状态的分析具有很高的实用价值。附图说明图1是本专利技术实施例听课状态侧面图。图2是本专利技术实施例听课状态正面图。图3是本专利技术实施例听课侧面骨架图。图4是本专利技术实施例听课正面骨架图。图5是本专利技术实施例听课状态正面骨架图测量角示意图。具体实施方式本专利技术的一种学生课堂听课状态自动识别方法,依次按照如下步骤进行:步骤C011:初始化Kinect摄像头cam_1和cam_2,初始化编解码器;步骤C011:初始化摄像头cam_1和cam_2,初始化编解码器;步骤C012:启动摄像头cam_1和cam_2,摄像头cam_1取学生侧面1帧深度图像(如图1所示),记为cam1_Image,摄像头cam_2取学生正面1帧深度图像(如图2所示),记为cam2_Image,将cam1_Image与cam2_Image传输到PC机并保存,进入步骤C013;若接收到系统结束信号,则关闭系统;步骤C013:PC机调用微软KinectforwindowsSDK2.0中的get_BodyCount()函数,获得cam1_Image中人体头、颈、右肩、右手肘及臀部所在位置的坐标并对相应的点进行命名,头部点为A1,颈部点为B1,右肩点为C1,右手肘点为E1,臀部点为G1;获得cam1_Image中人体头、颈、左肩、右肩、左手肘、右手肘及臀部所在位置的坐标并对相应的点进行命名,头部点为A2,颈部点为B2,左肩点为D2,右肩点为C2,左手肘点为F2,右手肘点为D2,臀部点为G2;步骤C014:对cam1_Image中的点A1与B1,B1与C1,C1与E1,B1与G1连线,生成骨架图(如图3所示),记为Ske1_Image并保存;对cam2_Image中的点A2与B2,B2与C2,C2与E2,B2与D2,D2与F2及B2与G2连线,生成骨架图(如图4所示),记为Ske2_Image并保存;步骤C021:对保存的图像Ske1_Image进行判断,点B1G1连线延长线与Kinect坐标系x轴的夹角在[60,120],判定为正常行为,进入C022步;步骤C022:对保存的图像Ske1_Image进行判断,点A1B1连线延长线与Kinect坐标系x轴的夹角在[60,120],判定为正常行为,进入C023步;步骤C023:对保存的图像Ske2_Image进行判断,如图5所示,点B2、点D2、F2点所构成的三角形中,点F2的纵坐标未超过点D2的纵坐标,则∠D2F2B2的值取其测量值,判断∠D2F2B2的角度,因取值不在[5,90]内,则判断为异常行为,进入C031步;步骤C031:启动cam_1和cam_2的摄像功能录制10秒的视频段,记为wrong_actio1和wrong_actio2并保存,返回C012步。本文档来自技高网...

【技术保护点】
1.一种学生课堂听课状态自动识别方法,其特征在于依次按照如下步骤进行:步骤C011:初始化摄像头cam_1和cam_2,初始化编解码器;步骤C012:启动摄像头cam_1和cam_2,摄像头cam_1取学生侧面1帧深度图像,记为cam1_Image, 摄像头cam_2取学生正面1帧深度图像,记为cam2_Image,将cam1_Image与cam2_Image传输到PC机并保存,进入步骤C013;若接收到系统结束信号,则关闭系统;步骤C013:PC机调用微软Kinect for windows SDK2.0中的get_BodyCount()函数,获得cam1_Image中人体头、颈、右肩、右手肘及臀部所在位置的坐标并对相应的点进行命名,头部点为A1,颈部点为B1,右肩点为C1,右手肘点为E1,臀部点为G1;获得cam1_Image中人体头、颈、左肩、右肩、左手肘、右手肘及臀部所在位置的坐标并对相应的点进行命名,头部点为A2,颈部点为B2,左肩点为D2,右肩点为C2,左手肘点为F2,右手肘点为D2,臀部点为G2;步骤C014:对cam1_Image中的点A1与B1,B1与C1,C1与E1,B1与G1连线,生成骨架图,记为Ske1_Image并保存;对cam2_Image中的点A2与B2,B2与C2,C2与E2,B2与D2,D2与F2及B2与G2连线,生成骨架图,记为Ske2_Image并保存;步骤C021:对保存的图像Ske1_Image进行判断,如点B1G1连线延长线与Kinect坐标系x轴的夹角在[60,120],判定为正常行为,进入C022步,否则判定为异常行为并进入C031步;步骤C022:对保存的图像Ske1_Image进行判断,如点A1B1连线延长线与Kinect坐标系x轴的夹角在[60,120],判定为正常行为,进入C023步,否则判断为异常行为并进入C031步;步骤C023:对保存的图像Ske2_Image进行判断,点B2、点D2、F2点所构成的三角形中,点F2的纵坐标如果超过点D2的纵坐标,则∠D2F2B2的值为其测量值的补角值,否则∠D2F2B2的值取其测量值,判断∠D2F2B2的角度,如果取值在[5,90]内,则判定为正常行为,进入C024步,否则,判断为异常行为,进入C031步;步骤C024:对保存的图像Ske2_Image进行判断,点B、点D、点F所构成的三角形中,点F的纵坐标如果大于或等于点D的纵坐标,则∠DFB的值为其测量值的补角值,否则取其测量值;判断∠DFB的角度,如果取值在[5,90],则判定为正常行为,进入C025步,否则,判断为异常行为,进入C031步;步骤C025:对保存的图像Ske2_Image进行判断,点BG连线延长线与Kinect坐标系x轴的夹角在[60,120],判定为正常行为,返回C012步,否则,判断为异常行为,进入C031步;步骤C031:启动cam_1和cam_2的摄像功能录制10秒的视频段,记为wrong_actio1和wrong_actio2并保存,返回C012步。...

【技术特征摘要】
1.一种学生课堂听课状态自动识别方法,其特征在于依次按照如下步骤进行:步骤C011:初始化摄像头cam_1和cam_2,初始化编解码器;步骤C012:启动摄像头cam_1和cam_2,摄像头cam_1取学生侧面1帧深度图像,记为cam1_Image,摄像头cam_2取学生正面1帧深度图像,记为cam2_Image,将cam1_Image与cam2_Image传输到PC机并保存,进入步骤C013;若接收到系统结束信号,则关闭系统;步骤C013:PC机调用微软KinectforwindowsSDK2.0中的get_BodyCount()函数,获得cam1_Image中人体头、颈、右肩、右手肘及臀部所在位置的坐标并对相应的点进行命名,头部点为A1,颈部点为B1,右肩点为C1,右手肘点为E1,臀部点为G1;获得cam1_Image中人体头、颈、左肩、右肩、左手肘、右手肘及臀部所在位置的坐标并对相应的点进行命名,头部点为A2,颈部点为B2,左肩点为D2,右肩点为C2,左手肘点为F2,右手肘点为D2,臀部点为G2;步骤C014:对cam1_Image中的点A1与B1,B1与C1,C1与E1,B1与G1连线,生成骨架图,记为Ske1_Image并保存;对cam2_Image中的点A2与B2,B2与C2,C2与E2,B2与D2,D2与F2及B2与G2连线,生成骨架图,记为Ske2_Image并保存;步骤C021:对保存的图像Ske1_Image进行判断,如点B1G1连线延长线...

【专利技术属性】
技术研发人员:傅博邢程頔杜飞飞高爽王相海
申请(专利权)人:辽宁师范大学
类型:发明
国别省市:辽宁,21

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1