A video detection method for street order events based on deep learning and motion consistency relates to the field of artificial intelligence and computer vision. The method steps of the invention are: 1) algorithm framework: 2) target detection; 3) motion consistency calculation; 4) event determination. Compared with the existing technology, the invention aims to detect the depth learning network, train the scene recognition model and calculate the motion information in the scene, and analyze the behavior state of the scene, and combine the target detection technology in the static video frame and the target line in the dynamic video as the analysis technique in the video intelligence analysis field. A joint detection event is designed to detect the business events outside the store and the occupying business events, so that the automatic detection of events can be completed accurately and quickly.
【技术实现步骤摘要】
基于深度学习及运动一致性的街面秩序事件视频检测方法
本专利技术涉及人工智能领域和计算机视觉领域,是基于图像处理技术和视频分析技术的、应用于城市监控场景下的街面秩序事件智能检测方法。
技术介绍
文俊,在2016年3月的博士论文《基于深度卷积神经网络的室外场景理解研究》中公开了,基于DCNN算法,围绕场景分割和场景识别,研究了动态目标分类、语义分割和联合目标检测与语义分割的场景理解技术。首先针对视频中运动目标物体的分类,提出一种基于多任务空间金字塔池化DCNN的动态目标分类方法。高层卷积特征对运动目标的平移、视角变化、光照、部分遮挡等具有较强的鲁棒性。该方法利用高斯混合模型对背景建模由背景差分法提取场景运动目标,经图像形态学处理获得较为准确的目标物体轮廓图像。将获得的前景目标图像块送入多任务空间金字塔池化DCNN而实现分类。实验证明,该方法具有很高的分类精度。同时,针对DCNN理论分析的缺乏,细致地分析了多任务训练方式和空间金字塔池化层对DCNN的分类效果的影响。实验表明,多任务的特征学习方式有助于DCNN学习更加丰富的卷积特征,空间金字塔池化层增强了DCNN的尺度不变性,两者均有助于提高DCNN对动态目标的分类准确率。为了克服传统的颜色、纹理和SIFT局部特征描述子等鲁棒性和表达能力等的不足,提出了一种基于DCNN的室外场景语义分割算法。该算法首先由MeanShift算法对图像进行预分割,将场景图像分割为大小不一的局部区域。然后对每一个分割后的图像局部区域随机采集样本图像块送入DCNN以获得其类别概率分布。最后将样本图像块的类别概率值进行平均获得每一个局部区 ...
【技术保护点】
1.基于深度学习及运动一致性的街面秩序事件视频检测方法,其方法步骤为:1)算法框架:算法框架:设定为轮询模式,循环接入前端视频流,采集N帧后缓存到指定内存中,然后切换到下一路视频流,缓存到相应的内存空间中;内部算法功能模块线程需要处理时从相应内存中拷贝到算法内部缓存中,处理完成后将运行结果统一送到事件判定线程做事件最终判定,然后拷贝下一路视频流所在的内存数据,用同样的方式做处理;2)目标检测:在Yolov2训练过程中,首先利用设计好的分类网络结构在ImageNet数据集上进行预训练,其次,将该网络结构最后的分类输出层去掉,在最后一个卷积层产生的feature map上,每个单元都会结合anchor信息生成一个向量,其中包括了类别输出信息、回归的坐标信息以及是否为目标的概率,之后设计loss函数并对其进行优化,最后完成模型的训练,loss函数由分类loss1、回归坐标以及是否为前景目标loss2构成,类别loss1同传统分类网络,采用softmax对其进行训练,回归坐标和是否前景目标loss2定义如下:
【技术特征摘要】
1.基于深度学习及运动一致性的街面秩序事件视频检测方法,其方法步骤为:1)算法框架:算法框架:设定为轮询模式,循环接入前端视频流,采集N帧后缓存到指定内存中,然后切换到下一路视频流,缓存到相应的内存空间中;内部算法功能模块线程需要处理时从相应内存中拷贝到算法内部缓存中,处理完成后将运行结果统一送到事件判定线程做事件最终判定,然后拷贝下一路视频流所在的内存数据,用同样的方式做处理;2)目标检测:在Yolov2训练过程中,首先利用设计好的分类网络结构在ImageNet数据集上进行预训练,其次,将该网络结构最后的分类输出层去掉,在最后一个卷积层产生的featuremap上,每个单元都会结合anchor信息生成一个向量,其中包括了类别输出信息、回归的坐标信息以及是否为目标的概率,之后设计loss函数并对其进行优化,最后完成模型的训练,loss函数由分类loss1、回归坐标以及是否为前景目标loss2构成,类别loss1同传统分类网络,采用softmax对其进行训练,回归坐标和是否前景目标loss2定义如下:其中,i指示当前计算单元,j指示当前anchor,x、y表示预测的坐标,w、h表示预测的宽、高,Pw和Ph分别表示anchor宽、高;检测时,输入一帧图像,图像经过一系列卷积、批归一化、池化、非线性映射等操作后,在最后一个卷积层得到多个featuremap;将最后一个卷积层得到的featuremap结合anchor信息,在每个单元预测5个边界框,每个边界框预测4个坐标值和一个目标概率值,若单元从图像的左上角偏移(cx,cy),且边界框有先验Pw,Ph(anchorbox),则预测为:bx=σ(tx)+cxby=σ(ty)+cybw=pwetwbh=pheth其中,σ(.)为非线性映射函数:不同于fasterrcnn框架中使用的固定大小的anchorbox,Yolov2中为了充分利用样本的统计特性,采用聚类的方式选取了5个anchorbox;训练集边界框上用K-means聚类来自动找好的先验:用标准K-means(欧...
【专利技术属性】
技术研发人员:郑全新,张磊,赵英,江龙,王亚涛,
申请(专利权)人:北京同方软件股份有限公司,
类型:发明
国别省市:北京,11
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。