The invention discloses a multi-area real-time action detection method based on surveillance video, which has the following steps: model training stage and test stage, in which the model training stage is to obtain training data: a database of specified actions marked; calculating dense optical flow of video sequence in training data, and obtaining training number. According to the optical flow sequence of the video sequence, the optical flow image in the optical flow sequence is labeled; the target detection model Yolo V3 is trained by using the video sequence and optical flow sequence in the training data, and the RGB Yolo V3 model and the optical flow Yolo V3 model are obtained respectively. The invention can not only realize space-time position detection of specific actions in surveillance video, but also realize real-time processing of surveillance.
【技术实现步骤摘要】
基于监控视频的多区域实时动作检测方法
本专利技术属于计算机视觉领域,具体涉及监控视频场景下的人体动作检测系统。
技术介绍
随着监控设施的应用越来越普及,越多的基于监控的技术得到应用,动作识别作为其中很有价值的技术之一,主要应用于室内、工厂环境下人机设备的交互,以及公共环境安全领域用于特定危险动作的检测与识别。大部分基于监控视频中的动作识别方法主要集中于整个场景的动作识别与分类任务上,这类视频一般是人工处理好的视频片段,视频片段中一般只包含一类动作,但是这种视频和自然的视频片段相差很大,还用一部分学者把研究任务放在检测动作在整个时间轴上发生的开始于接受的位置,但是在现实应用中获取视频中的动作的开始和结束以及动作在空间发生的范围都是很有用的,另外虽然现有的动作检测方法在现有的数据库以及竞赛中取得了很好的检测效果,但是这些方法一般都是通过把整个视频划分为很多的小块或者对整个视频进行处理,然后再输出这段视频中动作的时空位置,而要达到实时动作检测就要实现视频帧级别的处理,所以这类方法没有办法部署到监控系统中。随着监控设备的普及,监控视频中人体动作的检测逐渐成为一个流行的研究领域,WangL.,QiaoY.,TangX.的”Actionrecognitionwithtrajectory-pooleddeepconvolutionaldescriptors.”(在2015IEEEConferenceonComputerVisionandPatternRecognition(CVPR)(2015)。)方法中通过整合深度神经网络提取视频特征和利用密集跟踪算法的到的特征。来实 ...
【技术保护点】
1.一种基于监控视频的多区域实时动作检测方法,其特征在于具有如下步骤:模型训练阶段:A1、获取训练数据:标注好的特定动作的数据库;A2、计算训练数据中的视频序列的稠密光流,获取训练数据中的视频序列的光流序列,并对光流序列中的光流图像进行标注;A3、利用训练数据中的视频序列和光流序列分别训练目标检测模型yolo v3,分别得到RGB yolo v3模型和光流yolo v3模型;测试阶段:B1、通过金字塔Lucas‑Kanande光流法提取视频的稀疏光流图像序列,然后把视频的RGB图像序列和稀疏光流图像序列分别送入RGB yolo v3模型和光流yolo v3模型中,RGB yolo v3模型输出的一系列检测框使用非极大值抑制方法提取所有动作类别的前n个检测框
【技术特征摘要】
1.一种基于监控视频的多区域实时动作检测方法,其特征在于具有如下步骤:模型训练阶段:A1、获取训练数据:标注好的特定动作的数据库;A2、计算训练数据中的视频序列的稠密光流,获取训练数据中的视频序列的光流序列,并对光流序列中的光流图像进行标注;A3、利用训练数据中的视频序列和光流序列分别训练目标检测模型yolov3,分别得到RGByolov3模型和光流yolov3模型;测试阶段:B1、通过金字塔Lucas-Kanande光流法提取视频的稀疏光流图像序列,然后把视频的RGB图像序列和稀疏光流图像序列分别送入RGByolov3模型和光流yolov3模型中,RGByolov3模型输出的一系列检测框使用非极大值抑制方法提取所有动作类别的前n个检测框每个检测框有一个动作类别的标签和属于该动作的一个概率分数光流yolov3模型输出的一系列检测框使用非极大值抑制方法提取所有动作类别的前n个检测框每个检测框有一个动作类别的标签和属于该动作的一个概率分数分别遍历RGByolov3模型和光流yolov3模型输出的检测框,每个RGByolov3模型输出的检测框与光流yolov3模型输出的相同动作类别的检测框做交并比,并把最大的交并比对应的光流yolov3模型输出的同动作类别的检测框设为若最大的交并比大于阈值K,则把对应的两个RGByolov3模型和光流yolov3模型输出的检测框的概率分数融合为作为该RGByolov3模型输出的检测框的置信度,满足以下公式:其中,表示和的交并比,为与交并比最大的同动作类别的概率分数;B2、根据融合得到的每个RGByolov3模型输出的检测框的每个动作类别的置信度分数,连接视频的RGB图像序列之间的检测框形成tube:对tube进行初始化,使用视频的RGB图像序列中的第一帧图像的检测框进行初始化tube;分别对所有的动作类别进行以下操作:S1、匹配每个tube和t帧产生的检测框,首先遍历属于同动作类别的tube,若该动作类别有n个tube,对每个tube求该tube每帧的置信度的平均值,作为该tube的值,并对该动作类别的n个tube的值进行降序排列形成列表list类别,确定每...
【专利技术属性】
技术研发人员:陈东岳,任方博,王森,贾同,
申请(专利权)人:东北大学,
类型:发明
国别省市:辽宁,21
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。