System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 一种教学场景下人员站立检测方法及处理终端技术_技高网

一种教学场景下人员站立检测方法及处理终端技术

技术编号:40788678 阅读:2 留言:0更新日期:2024-03-28 19:19
本发明专利技术公开一种教学场景下人员站立检测方法,包括:获取目标视频,提取若干视频帧形成视频帧序列;采用训练好的yolov5模型对视频帧序列的每一个视频帧进行人头检测,得到人头检测结果集合B;采用包括目标框的视频追踪算法追踪目标视频的连续帧中的人头,得到人头追踪结果集合C,在各个视频帧中所对应的目标框的位置为L;采用匹配算法对人头检测结果集合B和人头追踪结果集合C进行匹配,若匹配失败,则重新进行追踪,若匹配成功,则继续;对目标框的中心点位置更新;基于更新后的目标框的位置,采用逻辑回归模型识别追踪目标是否站立,也即是识别目标人员是否站立,完成检测。本发明专利技术满足嵌入式终端实时推理,从而完成追踪。

【技术实现步骤摘要】

本专利技术涉及计算机人员站立检测,具体是一种教学场景下人员站立检测方法及处理终端


技术介绍

1、在教学场景中,有时需要对站立的人员(一般为学生)进行镜头特写,因此,需要对基于对教室内进行拍摄的视频中尽显人员是否站立检测,将检测出的人员再行镜头跟踪特写。现有技术检测视频中人员是否站立,主要是通过提取的视频帧生成差分图像,基于图像形态学技术来判断指定区域的像素变化来判断站立。但这种方法受限于场景的复杂度,不同的复杂度对结果的准确性有很大的影响。另外一种实现方法就是采用深度学习目标检测方法,通过标注站立人员的数据进行目标检测训练来实现。这种方式很大程度上依赖于标注所形成的数据质量,并且容易过拟合,对计算资源要求比较高,往往仅适用于硬件资源丰富、性能高的硬件设备。对于嵌入式终端而言,由于其计算资源往往是较低的,难以采用深度学习方法,也很难达到实时检测的要求。

2、对于教学场景,通常会采用嵌入式终端的摄像录播设备来追踪检测人员是否站立,其硬件资源有限,难以采用深度学习方法。而由于教学场景人员较多(以班级为单位的教室内,学生往往较多),基于像素变化来判断站立也容易出现误差,判断结果的准确性较低。

3、专利技术

4、针对现有技术的不足,本专利技术的目的是提供一种教学场景下人员站立检测方法及处理终端,其能够解决
技术介绍
描述的问题。

5、实现本专利技术的目的的技术方案为:一种教学场景下人员站立检测方法,包括以下步骤:

6、步骤1:获取目标视频,从目标视频按预设的帧间隔提取若干视频帧形成视频帧序列;

7、步骤2:采用训练好的yolov5模型对视频帧序列f的每一个视频帧进行人头检测,得到每个视频帧对应的人头检测结果序列,所有的人头检测结果序列构成人头检测结果集合b;

8、步骤3:采用包括目标框的视频追踪算法追踪目标视频的连续帧中的人头,得到初始人头追踪结果集合c1,对初始人头追踪结果集合c1采用卡尔曼滤波得到人头追踪结果集合c,

9、人头追踪结果集合包括m个追踪目标,对于同一个追踪目标,在各个视频帧中所对应的目标框的位置为l,第q个追踪目标在第p视频帧中所对应的目标框的位置记为lpq,位置采用二维坐标表示,lpq={xq,yq};

10、步骤4:采用匹配算法对人头检测结果集合b和人头追踪结果集合c进行匹配,若匹配失败,则跳转步骤3重新进行追踪,若匹配成功,则执行步骤5;

11、步骤5:按公式①对目标框的中心点位置更新:

12、mpq=(1-a)lpq+alpq-1------①

13、式中,a表示动量系数,0<a<1,mpq表示基于动量记录的位置,lpq表示当前实时更新后的位置,lpq-1表示上一次实时更新后的位置;

14、步骤6:基于更新后的目标框的位置,采用逻辑回归模型识别追踪目标是否站立,也即是识别目标人员是否站立,完成检测。

15、进一步地,yolov5模型的激活函数为relu激活函数。

16、进一步地,采集教学场景中不同年龄段的人员的视角数据,并手动标注一部分人员视角数据,然后基于标注的人员视角数据和其余未标注的人员视角数据对yolov5模型进行训练,得到训练好的yolov5模型。

17、进一步地,采用匈牙利算法进行最大匹配来完成人头检测结果集合b和人头追踪结果集合c的匹配。

18、进一步地,所述步骤6的具体实现,包括以下步骤:

19、步骤61:对于追踪目标tm,生成一个预设长度的队列ym,若队列ym能够匹配人头追踪结果集合c中的追踪目标cpq,则将追踪目标cpq加入队列ym;

20、步骤62:对于每个追踪目标的队列ym,计算相邻两个视频帧关于追踪目标在队列ym中的目标框位置变化量dm;

21、步骤63:将目标框位置变化量dm输入逻辑回归模型,逻辑回归模型判断出追踪目标在预设视频帧数量之内的变化量和平均变化率,若变化量和平均变化率均大于或等于预设预制,则判断追踪目标为站立,也即是识别目标人员为站立。

22、一种处理终端,其包括:

23、存储器,用于存储程序指令;

24、处理器,用于运行所述程序指令,以执行所述教学场景下人员站立检测方法的步骤。

25、本专利技术的有益效果:本专利技术将yolov5模型原本默认的激活函数进行替换,能够提高推理速度,从而能够满足嵌入式终端对视频进行目标人员进行实时推理,从而完成追踪。并且基于教学场景这种活动范围相对固定,采用动力更新的中心点坐标,记录历史位置信息,提升追踪效果,使得追踪的目标人员不容易丢失。采用逻辑回归模型,判断追踪目标在连续视频帧中的变化量是否属于站立,准确率更高,也能够避免因视频场景单一带来的过拟合现象。


技术实现思路

本文档来自技高网...

【技术保护点】

1.一种教学场景下人员站立检测方法,其特征在于,包括以下步骤:

2.根据权利要求1所述的教学场景下人员站立检测方法,其特征在于,yolov5模型的激活函数为relu激活函数。

3.根据权利要求1所述的教学场景下人员站立检测方法,其特征在于,采集教学场景中不同年龄段的人员的视角数据,并手动标注一部分人员视角数据,然后基于标注的人员视角数据和其余未标注的人员视角数据对yolov5模型进行训练,得到训练好的yolov5模型。

4.根据权利要求1所述的教学场景下人员站立检测方法,其特征在于,采用匈牙利算法进行最大匹配来完成人头检测结果集合B和人头追踪结果集合C的匹配。

5.根据权利要求1所述的教学场景下人员站立检测方法,其特征在于,所述步骤6的具体实现,包括以下步骤:

6.一种处理终端,其特征在于,其包括:

【技术特征摘要】

1.一种教学场景下人员站立检测方法,其特征在于,包括以下步骤:

2.根据权利要求1所述的教学场景下人员站立检测方法,其特征在于,yolov5模型的激活函数为relu激活函数。

3.根据权利要求1所述的教学场景下人员站立检测方法,其特征在于,采集教学场景中不同年龄段的人员的视角数据,并手动标注一部分人员视角数据,然后基于标注的人员视角数据和其余未标注的人员视角...

【专利技术属性】
技术研发人员:何海君李昌绿明德詹楚伟
申请(专利权)人:广东保伦电子股份有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1