一种基于YOLOv3的视频目标检测方法技术

技术编号:22364499 阅读:184 留言:0更新日期:2019-10-23 04:49
本发明专利技术涉及一种基于YOLOv3的视频目标检测方法,属于目标检测和计算机视觉技术领域。首先使用检测的图像定义视觉任务。利用特征网络对输入图像提取特征,得到一定尺寸的特征图,例如13*13,然后将输入分成13*13个网络单元,然后如果groundtruth中某个物体的中心坐标落在那个网络单元中,那么该网络单元来预测该物体。通过YOLOLv3采用多标签分类和多个规模融合的方式做预测本发明专利技术结合深度学习卷积神经网络思想,利用卷积特征替代传统手工特征,避免了传统检测问题中特征选择问题。深层卷积特征具有更好的表达能力同时解决了视频目标检测问题提供了更加泛化和简洁的解决思路。对于小目标检测效果提升有显著的效果。

A video target detection method based on yolov3

【技术实现步骤摘要】
一种基于YOLOv3的视频目标检测方法
本专利技术涉及一种基于YOLOv3的视频目标检测方法,属于目标检测和计算机视觉

技术介绍
视频目标检测技术是智能化视频分析的基础。目前几种常用的视频目标检测方法简介如下:背景减除、时间差分、光流。背景减除(BackgroundSubtraction)方法是目前运动检测中最常用的一种方法,它是利用当前图像与背景图像的差分来检测出运动目标的一种技术。它一般能够提供相对来说比较全面的运动目标的特征数据,但对于动态场景的变化,如光线照射情况和外来无关事件的干扰等也特别敏感。实际上,背景的建模是背景减除方法的技术关键。最简单的背景模型是时间平均图像,即利用同一场景在一个时段的平均图像作为该场景的背景模型。由于该模型是固定的,一旦建立之后,对于该场景图像所发生的任何变化都比较敏感,比如阳光照射方向,影子,树叶随风摇动等。大部分的研究人员目前都致力于开发更加实用的背景模型,以期减少动态场景变化对于运动目标检测效果的影响。时间差分(TemporalDifference又称相邻帧差)方法充分利用了视频图像的特征,从连续得到的视频流中提取所需要的动态目标本文档来自技高网...

【技术保护点】
1.一种基于YOLOv3的视频目标检测方法,其特征在于:Step1:定义视频视觉任务;Step2:通过特征网络对输入图像提取特征,得到一定尺寸的特征图;Step3:通过groundtruth中的物体中心坐标在那个网络单元中,接着由该网络单元来预测该物体;Step4、利用边界框中和groundtruth的IOU最大的边界框来预测该物体。

【技术特征摘要】
1.一种基于YOLOv3的视频目标检测方法,其特征在于:Step1:定义视频视觉任务;Step2:通过特征网络对输入图像提取特征,得到一定尺寸的特征图;Step3:通过groundtruth中的物体中心坐标在那个网络单元中,接着由该网络单元来预测该物体;Step4、利用边界框中和groundtruth的IOU最大的边界框来预测该物体。2.根据权利要求1所述的基于YOLOv3的视频目标检测方法,其特征在于:所述步骤step2中图像采用448*448,特征网络采用Darknet-53架构,Darknet-53包含卷积层,池化层,Softmax层,采用全卷积,引入residul结构,采用Softmax分类器做训练,学习率0.001,批量大小为64,为采用批量标准化对权重参数和偏置参数进行迭代训练,设置权重衰减速率weight_decay默认为0...

【专利技术属性】
技术研发人员:刘辉杨旭
申请(专利权)人:昆明理工大学
类型:发明
国别省市:云南,53

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1