一种基于视频的离床检测方法技术

技术编号:22975017 阅读:28 留言:0更新日期:2019-12-31 23:32
本发明专利技术提供一种基于视频的离床检测方法,包括以下步骤:A.参数设置,包括设置检测区域和触发离床报警时长;B.持续对视频监控图像进行预处理;C.对预处理后的监控图像进行目标检测;D.检测区域内有人无人判断;E.目标穿出检测区域状态判断;F.离床报警时间统计。该发明专利技术的有益效果是:对离床状态进行检测,节省了传统通过感应硬件进行检测的硬件成本,实现了对离床检测的自动化,不仅省去了大量的人力成本和时间成本,而且有效提升了识别准确率,降低了误警率,本发明专利技术具有多种场景的适用性。

An off bed detection method based on video

【技术实现步骤摘要】
一种基于视频的离床检测方法
本专利技术涉及视频监控
,尤其是涉及一种基于视频的离床检测方法。
技术介绍
随着技术的进步与发展,视频监控系统在公安系统内部各单位的应用越来越广泛,尤其是对在押人员的监管和监控,视频监控系统起着尤为重要的作用。离床检测主要应用于夜晚时对在押人员的监控场景,在押人员离床时间过长,可能会导致异常事件的发生,在发现在押人员离床时间过长时,及时发出报警信息。目前监察人员往往需要面对几百路甚至上千路的电视墙,很容易注意力分散,无法及时发现视频中在押人员离床时间过长的情况。现有的离床检测通常是通过感应硬件实现的,硬件成本也较高。本专利技术基于视频的离床检测方法能够及时对在押人员离床时间过长的情况进行报警,提醒监察人员异常情况的发生。
技术实现思路
有鉴于此,本专利技术旨在提出一种基于视频的离床检测方法,能够及时对在押人员离床时间过长的情况进行报警,减少在押犯人异常事件的发生。为达到上述目的,本专利技术的技术方案是这样实现的:一种基于视频的离床检测方法,包括以下步骤:A.参数设置,包括设置检测区域和触发离床报警时长;B.持续对视频监控图像进行预处理;C.对预处理后的监控图像进行目标检测;D.检测区域内有人无人判断;E.目标穿出检测区域状态判断;F.离床报警时间统计。进一步的,所述步骤A中检测区域为监控场景下床位的位置。进一步的,所述步骤B中运用高斯滤波法对视频监控图像进行平滑去噪预处理。进一步的,所述步骤C中使用YOLO模型对步骤B中得到的预处理后的图像进行目标检测。进一步的,所述YOLO模型的训练过程如下:a.收集样本;b.数据增强;c.样本标注;d.在DarkNet框架下训练模型;进一步的,所述样本收集需要覆盖应用场景下目标的各种可能的姿势和角度,并且样本中应包括无人但容易误检到人的场景以降低误检率,样本收集完后对样本做图像数据增强,调整图像的亮度、角度、对比度等信息,增加样本的多样性,可以提高模型的鲁棒性,数据增强完成后,对样本进行标注,即根据人在图像中的位置,标出真实的位置坐标,样本的标注要求所标注目标位置的准确性,之后在darknet框架下进行模型训练,得到YOLO模型。进一步的,所述步骤C中对步骤B得到的图像进行目标检测的过程为:通过YOLO模型在整幅监控图像上检测、记录检测目标的位置,采用逻辑回归sigmoid函数,计算得分,当检测目标得分大于0.8时认为检测目标有效,并对有效目标进行跟踪形成运动轨迹。进一步的,所述步骤D中检测区域内有人无人判断的过程如下:将有效检测目标位置与检测区域进行对比,判断有效检测目标是否在检测区域内,若检测区域内无有效目标,则认为检测区域内无人,否则认为检测区域内有人。进一步的,所述步骤E中目标穿出检测区域状态判断的过程如下:根据有效目标的运动轨迹与检测区域边界交叉情况,判断目标穿出检测区域状态,若有效目标的轨迹与检测区域边界有交叉,并且轨迹末端在检测区域外,则认为目标穿出检测区域;若运动轨迹与检测区域边界无交叉,则认为检测目标未穿出检测区域。进一步的,所述步骤F中离床报警时间统计,包括步骤:F1.结合步骤D中检测区域内有人无人判断结果和步骤E中目标穿出检测区域状态判断结果,进行无人状态计时或离床报警时间统计;若步骤D中检测区域内无人,且步骤E中目标穿出检测区域,则开启无人状态计时累加,若连续3帧检测到区域内有人,则停止累加且减少计时,所述减少计时规则是每连续3帧检测到检测区域内有人,则在无人状态计时累加值中减少1帧;若步骤D中检测区域内无人,且步骤E中目标未穿出检测区域,则开始离床报警时间计时累加,在离床报警时间计时累加过程中若连续多帧检测到区域内有人,当该帧数达到可判定区域内有人的帧数阈值,则停止累加且清零计时,所述帧数阈值为经验值;F2.当无人状态计时达到无人状态报警阈值或离床报警时间计时达到预设触发离床报警时长,均会输出报警信号,所述无人状态报警阈值是一个固定的帧数。相对于现有技术,本专利技术所述的一种基于视频的离床检测方法具有以下优势:本专利技术是对视频图像进行分析,对离床状态进行检测:首先获取视频图像,对图像进行预处理,去除图像噪点,设置检测区域和允许离床时间,使用模型检测的方法对图像进行检测,确定人的位置及相应的得分,对检测结果进行后处理,滤除得分较低的检测结果,并对目标进行跟踪形成轨迹,对人员离床的状态形成有效的判断。这种视频图像进行分析的方法,节省了传统通过感应硬件进行检测的硬件成本,实现了对离床检测的自动化,不仅省去了大量的人力成本和时间成本,而且有效提升了识别准确率,降低了误警率,本专利技术具有多种场景的适用性。附图说明构成本专利技术的一部分的附图用来提供对本专利技术的进一步理解,本专利技术的示意性实施例及其说明用于解释本专利技术,并不构成对本专利技术的不当限定。在附图中:图1为本专利技术实施例所述的一种基于视频的离床检测方法流程图;图2为本专利技术实施例所述的一种基于视频的离床检测方法中使用的深度学习检人模型训练流程图。具体实施方式下面将参考附图并结合实施例来详细说明本专利技术。如图1所示,一种基于视频的离床检测方法,包括以下步骤:A.参数设置,包括设置检测区域和触发离床报警时长;B.持续对视频监控图像进行预处理;C.对预处理后的监控图像进行目标检测;D.检测区域内有人无人判断;E.目标穿出检测区域状态判断;F.离床报警时间统计。进一步的,所述步骤A中检测区域为监控场景下床位的位置。进一步的,所述步骤B中运用高斯滤波法对视频监控图像进行平滑去噪预处理。进一步的,所述步骤C中使用YOLO模型对步骤B中得到的预处理后的图像进行目标检测。如图2所示,所述YOLO模型的训练过程如下:a.收集样本;b.数据增强;c.样本标注;d.在DarkNet框架下训练模型;所述样本收集需要覆盖应用场景下目标的各种可能的姿势和角度,并且样本中应包括无人但容易误检到人的场景以降低误检率,样本收集完后对样本做图像数据增强,调整图像的亮度、角度、对比度等信息,增加样本的多样性,可以提高模型的鲁棒性,数据增强完成后,对样本进行标注,即根据人在图像中的位置,标出真实的位置坐标,样本的标注要求所标注目标位置的准确性,之后在darknet框架下进行模型训练,得到YOLO模型。所述步骤C中对步骤B得到的图像进行目标检测的过程为:通过YOLO模型在整幅监控图像上检测、记录检测目标的位置,采用逻辑回归sigmoid函数,计算得分,当检测目标得分大于0.8时认为检测目标有效,并对有效目标进行跟踪形成运动轨迹。所述步骤D中检测区域内有人无人判断的过程如下:将有效检测目标位置与检测区域进行对比,判本文档来自技高网...

【技术保护点】
1.一种基于视频的离床检测方法,其特征在于,包括以下步骤:/nA.参数设置,包括设置检测区域和触发离床报警时长;/nB.持续对视频监控图像进行预处理;/nC.对预处理后的监控图像进行目标检测;/nD.检测区域内有人无人判断;/nE.目标穿出检测区域状态判断;/nF.离床报警时间统计。/n

【技术特征摘要】
1.一种基于视频的离床检测方法,其特征在于,包括以下步骤:
A.参数设置,包括设置检测区域和触发离床报警时长;
B.持续对视频监控图像进行预处理;
C.对预处理后的监控图像进行目标检测;
D.检测区域内有人无人判断;
E.目标穿出检测区域状态判断;
F.离床报警时间统计。


2.根据权利要求1所述的一种基于视频的离床检测方法,其特征在于:所述步骤A中检测区域为监控场景下床位的位置。


3.根据权利要求1所述的一种基于视频的离床检测方法,其特征在于:所述步骤B中运用高斯滤波法对视频监控图像进行平滑去噪预处理。


4.根据权利要求1所述的一种基于视频的离床检测方法,其特征在于:所述步骤C中使用YOLO模型对步骤B中得到的预处理后的图像进行目标检测。


5.根据权利要求4所述的一种基于视频的离床检测方法,其特征在于,所述YOLO模型的训练过程如下:
a.收集样本;
b.数据增强;
c.样本标注;
d.在DarkNet框架下训练模型,得到YOLO模型。


6.根据权利要求4所述的一种基于视频的离床检测方法,其特征在于:所述步骤C中对步骤B得到的图像进行目标检测的过程为:通过YOLO模型在整幅监控图像上检测、记录检测目标的位置,采用逻辑回归sigmoid函数,计算得分,当检测目标得分大于0.8时认为检测目标有效,并对有效检测目标进行跟踪形成运动轨迹。

【专利技术属性】
技术研发人员:陈澎祥李森肖萌璐王健孙雅彬
申请(专利权)人:天津天地伟业机器人技术有限公司
类型:发明
国别省市:天津;12

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1