行为检测方法、装置及计算机可读存储介质制造方法及图纸

技术编号:27452846 阅读:9 留言:0更新日期:2021-02-25 04:42
本发明专利技术涉及行为检测技术领域,揭露一种行为检测方法,包括将待检测视频输入训练完成的目标检测模型中,获取与待检测视频对应的目标检测结果;同时,提取待检测视频中人体的关键点信息,并对关键点信息进行预处理,获取与待检测视频中的人体对应的姿态分类结果;对目标检测结果及姿态分类结果进行逻辑回归处理,获取待检测视频中的人体的行为检测结果。本发明专利技术可以结合姿态分类结果和目标检测结果的融合进行目标行为检测,行为检测的速度快和准确度高。高。高。

【技术实现步骤摘要】
行为检测方法、装置及计算机可读存储介质


[0001]本专利技术涉及行为检测
,尤其涉及一种行为检测方法、装置、电子设备及计算机可读存储介质。

技术介绍

[0002]目前,在公共室内场合、大型工地现场或车辆驾驶室内,吸烟、打电话或喝水等常见的行为,容易导致不文明影响或存在安全隐患,而采用传统的人工监管方式,成本较高,不能进行全程监控,存在监控疏忽或误判的情况。
[0003]而现有的目标检测作为辅助驾驶系统或者视频监控等应用中的一项重要检测项目,其通常是对无遮挡、遮挡不严重或者行动幅度较大的人体进行常规的姿态检测,但是对于目标较小或者不易察觉的目标检测精度较低,导致其检测效果差,适用范围受限。
[0004]此外,现有的目标检测普遍通过机器视觉对近距离的目标进行检测,但在较远场景应用中,例如对香烟、电话等微小目标进行检测时,由于目标小、距离远、不易检测等问题,导致现有的目标检测方案精度低、误判率高、适用场景受限。

技术实现思路

[0005]本专利技术提供一种行为检测方法、装置、电子设备及计算机可读存储介质,其主要目的在于解决现有目标检测方案存在的精度低、误判率高、适用场景受限等问题,以提高目标检测的速度和精度。
[0006]为实现上述目的,本专利技术提供的一种行为检测方法,包括:
[0007]将待检测视频输入训练完成的目标检测模型中,获取与所述待检测视频对应的目标检测结果;同时,
[0008]提取所述待检测视频中人体的关键点信息,并对所述关键点信息进行预处理,获取与所述待检测视频中的人体对应的姿态分类结果;
[0009]对所述目标检测结果及所述姿态分类结果进行逻辑回归处理,获取所述待检测视频中的人体的行为检测结果。
[0010]可选地,所述目标检测模型的训练过程包括:
[0011]获取带有目标行为的训练数据集,所述训练数据集存储于区块链中;
[0012]对所述训练数据集中的所述目标行为进行标注,并获取标注位置信息;
[0013]利用yolo模型对所述标注位置信息进行参数训练,直至所述yolo模型收敛在预设范围内,完成所述目标检测模型的训练。
[0014]可选地,所述获取与所述待检测视频对应的目标检测结果的步骤包括:
[0015]提取所述待检测视频中的帧图像;
[0016]将所述帧图像输入训练完成后的所述目标检测模型;
[0017]所述目标检测模型输出与所述帧图像对应的目标检测框,作为所述目标检测结果。
[0018]可选地,所述提取所述待检测视频中人体的关键点信息,并对所述关键点信息进行预处理,获取与所述待检测视频中的人体对应的姿态分类结果的步骤包括:
[0019]基于alphapose开源系统提取所述待检测视频中人体的关键点信息;
[0020]对所述关键点信息进行归一化处理,并获取与所述关键点信息对应的转换坐标信息;
[0021]基于KNN邻近算法比对所述转换坐标信息及预设经验图像集中的标准坐标信息,获取与所述待检测视频中人体对应的姿态分类结果。
[0022]可选地,所述KNN邻近算法比对的步骤包括:
[0023]获取所述转换坐标信息与所述预设经验图像集中的各样本点之间的距离,以获取与各样本点对应的距离信息;
[0024]对各距离信息进行排序,并选择距离小于预设值的K个点;
[0025]对K个点所属的类别进行比较,将所述转换坐标信息对应的关键点归入在K个点中占比最高的一类行为。
[0026]可选地,所述对所述目标检测结果及所述姿态分类结果进行逻辑回归处理,获取所述待检测视频中的人体的行为检测结果的步骤包括:
[0027]根据所述关键点信息确定待检测视频中人体的手部位置及待测目标位置的置信度;
[0028]获取所述目标检测框与所述手部位置之间的第一距离,以及所述目标检测框与所述待测目标之间的第二距离;
[0029]基于所述第一距离、第二距离、所述待测目标位置的置信度和所述姿态分类结果,确定所述行为检测结果的概率。
[0030]为了解决上述问题,本专利技术还提供一种行为检测装置,所述装置包括:
[0031]目标检测结果获取单元,用于将待检测视频输入训练完成的目标检测模型中,获取与所述待检测视频对应的目标检测结果;
[0032]姿态分类结果获取单元,用于提取所述待检测视频中人体的关键点信息,并对所述关键点信息进行预处理,获取与所述待检测视频中的人体对应的姿态分类结果;
[0033]行为检测结果获取单元,用于对所述目标检测结果及所述姿态分类结果进行逻辑回归处理,获取所述待检测视频中的人体的行为检测结果。
[0034]可选地,所述目标检测模型的训练过程包括:
[0035]获取带有目标行为的训练数据集,所述训练数据集存储于区块链中;
[0036]对所述训练数据集中的所述目标行为进行标注,并获取标注位置信息;
[0037]利用yolo模型对所述标注位置信息进行参数训练,直至所述yolo模型收敛在预设范围内,完成所述目标检测模型的训练。
[0038]为了解决上述问题,本专利技术还提供一种电子设备,所述电子设备包括:
[0039]存储器,存储至少一个指令;及
[0040]处理器,执行所述存储器中存储的指令以实现上述所述的行为检测方法。
[0041]为了解决上述问题,本专利技术还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现上述所述的行为检测方法。
[0042]本专利技术实施例提供的行为检测方法、装置、设备及存储介质,可通过目标检测模型获取与待检测视频对应的目标检测结果;同时,提取人体的关键点信息,并基于关键点信息进行姿态分类,然后将姿态分类结果和目标检测结果进行逻辑回归处理,实现更高精度的人体行为检测,可实现对小目标的远距离高精度检测。
附图说明
[0043]图1为本专利技术一实施例提供的行为检测方法的流程示意图;
[0044]图2为本专利技术一实施例提供的行为检测装置的模块示意图;
[0045]图3为本专利技术一实施例提供的实现行为检测方法的电子设备的内部结构示意图;
[0046]本专利技术目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
[0047]应当理解,此处所描述的具体实施例仅仅用以解释本专利技术,并不用于限定本专利技术。
[0048]本专利技术提供一种行为检测方法。参照图1所示,为本专利技术一实施例提供的行为检测方法的流程示意图。该方法可以由一个装置执行,该装置可以由软件和/或硬件实现。
[0049]如图1所示,本专利技术实施例的行为检测方法,包括以下步骤:
[0050]S110:将待检测视频输入训练完成的目标检测模型中,获取与待检测视频对应的目标检测结果。
[0051]其中,目标检测模型的训练过程进一步包括:本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种行为检测方法,其特征在于,所述方法包括:将待检测视频输入训练完成的目标检测模型中,获取与所述待检测视频对应的目标检测结果;同时,提取所述待检测视频中人体的关键点信息,并对所述关键点信息进行预处理,获取与所述待检测视频中的人体对应的姿态分类结果;对所述目标检测结果及所述姿态分类结果进行逻辑回归处理,获取所述待检测视频中的人体的行为检测结果。2.如权利要求1所述的行为检测方法,其特征在于,所述目标检测模型的训练过程包括:获取带有目标行为的训练数据集,所述训练数据集存储于区块链中;对所述训练数据集中的所述目标行为进行标注,并获取标注位置信息;利用yolo模型对所述标注位置信息进行参数训练,直至所述yolo模型收敛在预设范围内,完成所述目标检测模型的训练。3.如权利要求2所述的行为检测方法,其特征在于,所述获取与所述待检测视频对应的目标检测结果的步骤包括:提取所述待检测视频中的帧图像;将所述帧图像输入训练完成后的所述目标检测模型;所述目标检测模型输出与所述帧图像对应的目标检测框,作为所述目标检测结果。4.如权利要求1所述的行为检测方法,其特征在于,所述提取所述待检测视频中人体的关键点信息,并对所述关键点信息进行预处理,获取与所述待检测视频中的人体对应的姿态分类结果的步骤包括:基于alphapose开源系统提取所述待检测视频中人体的关键点信息;对所述关键点信息进行归一化处理,并获取与所述关键点信息对应的转换坐标信息;基于KNN邻近算法比对所述转换坐标信息及预设经验图像集中的标准坐标信息,获取与所述待检测视频中人体对应的姿态分类结果。5.如权利要求4所述的行为检测方法,其特征在于,所述KNN邻近算法比对的步骤包括:获取所述转换坐标信息与所述预设经验图像集中的各样本点之间的距离,以获取与各样本点对应的距离信息;对各距离信息进行排序,并选择距离小于预设值的K个点;对K个点所属的类别进行比较,将所述转换坐...

【专利技术属性】
技术研发人员:芦文峰刘伟超郭倜颖贾怀礼陈远旭
申请(专利权)人:平安科技深圳有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1