一种小尺度行人快速检测方法技术

技术编号:25803904 阅读:22 留言:0更新日期:2020-09-29 18:38
本发明专利技术公开了一种小尺度行人快速检测方法,属于计算机视觉领域,用以提高小尺度行人的检测效果和检测速度。包括:将原图片进行压缩,使用yolov3‑tiny行人检测算法进行检测;在yolov3‑tiny算法的主干网络的第五层卷积后加入CENet网络,预测裁剪区域;在原图上进行裁剪,将裁剪后的区域再次送入yolo3‑tiny网络进行检测,采用NMS算法综合多个图片的检测结果。本发明专利技术在yolov3‑tiny算法的基础上,借鉴图片金字塔方法的优势,对原图进行裁剪后预测,避免了图片尺寸缩小过程中小尺度行人信息的丢失,提高小尺度行人检测的平均准确率,推动行人检测算法在智能安防和自动驾驶等领域的应用。

【技术实现步骤摘要】
一种小尺度行人快速检测方法
本专利技术提供了一种小尺度行人快速检测方法,属于计算机视觉领域,用以提高小尺度行人的检测效果和检测速度。
技术介绍
行人检测技术是利用计算机视觉技术判断图像或者视频序列中是否存在行人并给予准确定位,该技术与行人跟踪和行人识别等技术相结合,可应用于智能视频监控、人体行为分析、智能交通、车辆辅助驾驶系统和等领域。小尺度行人是指图片中所占像素较少的行人,其像素的高度范围在(20,30)。小尺度行人检测问题是行人检测技术中的难点问题之一。其主要原因在于:小尺度行人的像素较少,算法对图片进行特征提取的过程中容易丢失小尺度行人信息。对于小尺度行人问题,目前也有很多解决办法,按照应用的广泛度归为三大类:图像金字塔方法、特征融合方法和其它方法。(1)图像金字塔就是以一幅图像为金字塔底端,从下到上分辨率逐渐降低、图像越来越小的一系列图像集合。图像金字塔解决小尺度行人的问题的原理是,将图像变换为一组不同分辨率的图像,高分辨率的图像用来检测小尺度行人,低分辨率的图像用来检测大尺度行人。(2)特征金字塔方法利用的是多层卷积层的金字塔特性。特征金字塔网络(FeaturePyramidNetworks,FPN)对每一层的特征图采用自顶向下的方法将小的特征图上采样后与下一个特征图融合,将每个分辨率的特征图放大两倍,与前一分辨率的特征图进行像素相加的操作,使得每一层的特征图都包含了不同分辨率的特征。然后根据融合后特征图的分辨率大小,分别来预测对应尺度的目标。(3)研究者们也从其它独特的角度提出了各种各样的方法,如:感知生成式对抗网络来丰富小目标的信息,从而提高小目标检测效果;多阶段不断提高IoU的阈值使得在保证样本数量的同时也能使得样本的质量不下降,最后训练出高质量的检测器;利用关系模块建立不同目标的关系利用上下文信息,小物体有更多的周边信息来帮助识别,从而提高检测准确率。在不增大计算量的同时,又能准确检测小尺度行人成为了改善行人检测效果的关键点,目前尚未有有效的解决办法。
技术实现思路
为了解决上述问题,本专利技术提供了一种小尺度行人快速检测方法,将其命名为CEYOLO算法。通过对原图片进行裁剪后再次检测,避免了对原图进行尺寸缩小的同时,丢失了小尺度行人的信息。进而在保证检测速度的同时,提高了小尺度行人的检测效果。基于上述目的本专利技术提出了一个CENet模块来负责预测原图中需要再次裁剪并预测的区域。整体的检测过程包括以下步骤:步骤一:将原图片进行压缩,使用yolov3-tiny行人检测算法进行检测。步骤二:在yolov3-tiny算法的主干网络的第五层卷积后加入CENet网络,预测裁剪区域。步骤三:在原图上进行裁剪,将裁剪后的区域再次送入yolo3-tiny网络进行检测,采用NMS算法综合多个图片的检测结果。在一些实施方案中,所述步骤一包括:采用双线性差值对图片尺寸进行变换,将图片寸寸缩小为416*416。YOLOv3-Tiny算法的网络结构如图1所示。图中输入的图片通过七层卷积提取图片特征,经过32倍下采样得到最后一层的特征图,再经过两次卷积,得到输出。特征图之后也是全卷积层,这样的好处是可以处理不同尺寸的图片。然后将第七层的特征图经过2倍上采样,与第六层特征图进行合并。再经过一层卷积,得到输出。在一些实施方案中,所述步骤二包括:整体的网络结构如图2所示,分为上下两个网络,上面的网络为一个YOLOv3-Tiny网络加CENet模块,下面的网络可完全视为一个YOLOv3-Tiny网络。CENet模块的输入为YOLOv3-Tiny的主干网络的第五层特征图。为了不过多增加网络参数,上下两个YOLOv3-Tiny的网络参数是共享的。在一些实施方案中,所述步骤三包括:将若干裁剪后的图片输入到yolov3-tiny算法中进行检测,采用NMS对所有结果进行综合,得到最后的检测结果。其过程为:(1)获取所有预测框的信息,包括原图的检测结果和裁剪图片的检测结果;(2)将预测框按照置信度从高到低排序,并记录当前置信度最大的预测框;(3)计算最大置信度对应的预测框与剩下所有的预测框的IOU,移除所有大于IOU阈值的预测框;(4)对剩下的预测框,循环执行(2)和(3)直到所有的预测框均满足要求(即不能再移除预测框)。附图说明为了更清楚地说明本专利技术实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本专利技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。图1是yolov3-tiny算法的网络结构图。图2是本专利技术实施例提供的基于yolov3-tiny改进后的算法CEYOLO的网络结构图。图3是yolov3-tiny算法的原理图。图4是CEYOLO算法中的CENet模块图。图5是双线性差值示例图具体实施方式为使本专利技术的目的、技术方案和优点更加清楚明白,下面将结合本专利技术实施例中的附图,对本专利技术实施例中的技术方案进一步进行清楚、完整、详细地描述,显然,所描述的实施例仅仅是本专利技术一部分实施例,而不是全部的实施例。基于本专利技术中的实施例,本领域普通技术人员所获得的所有其他实施例,都属于本专利技术保护的范围。本专利技术提供的CEYOLO小尺度行人检测方法的检测流程如图2所示,整体方法包括:步骤一:将原图片进行压缩,使用yolov3-tiny算法进行检测。步骤二:在yolov3-tiny主干网络的第五层卷积后加入CENet网络,预测裁剪区域。步骤三:在原图上进行裁剪,将裁剪后的区域再次送入yolo3-tiny网络进行检测,采用NMS算法综合多个图片的检测结果。在一些实施方案中,所述步骤一包括:双线性差值的具体计算方法如下:欲求得某函数F在P点的值,P点坐标已知(x,y),同时知道Q11、Q12、Q21、Q22的这四个点的值和坐标,如图5所示,所有点的两个方向的坐标值已标出。先在x轴方向上执行线性差值,由Q11、Q21得到R1,由Q12、Q22得到R2,同理,在y轴方向,再根据R1和R2得到P,即为所求。Yolov3-tiny算法的具体实现方法是:1.将一幅图片分成S*S个网格(S为超参数,YOLO算法取7),假如某个目标的中心落在某个小网格里,则该小网格就负责这个目标的预测。2.每个小网格负责预测B个包围框(B为超参数,YOLO算法取2),每个包围框(boundingbox)除了要回归自身的位置外,还要预测一个置信度值。置信度值有两项,分别为预测的包围框中含有目标的可能性和这个包围框预测的准度。如果有目标落在一个小网格里,第一项取1,否则取0。第二项是预测的包围框与实际的包围框之间的IoU(衡量重合度)值。每个包围框要预测(x,y,w,h)和置信度共5个值,每个小网格还要预测一个类别信息,记作C类。则S*S个网格的输出就是S*S*(5*B+C)的一个矩本文档来自技高网
...

【技术保护点】
1.一种小尺度行人快速检测方法,其特征在于,具体步骤如下:/n步骤一:将原图片进行压缩,使用yolov3-tiny行人检测算法进行检测。/n步骤二:在yolov3-tiny算法的主干网络的第五层卷积后加入CENet网络,预测裁剪区域。/n步骤三:在原图上进行裁剪,将裁剪后的区域再次送入yolo3-tiny网络进行检测,采用NMS算法综合多个图片的检测结果。/n

【技术特征摘要】
1.一种小尺度行人快速检测方法,其特征在于,具体步骤如下:
步骤一:将原图片进行压缩,使用yolov3-tiny行人检测算法进行检测。
步骤二:在yolov3-tiny算法的主干网络的第五层卷积后加入CENet网络,预测裁剪区域。
步骤三:在原图上进行裁剪,将裁剪后的区域再次送入yolo3-tiny网络进行检测,采用NMS算法综合多个图片的检测结果。


2.根据权利要求1所述的一种基于yolov3-tiny算法的小尺度行人检测方法,其特征在于,所述的步骤一具体为:采用双线性差值对图片尺寸进行变换,将图片寸寸缩小为416*416。。输入的图片通过七层卷积提取图片特征,经过32倍下采样得到最后一层的特征图,再经过两次卷积,得到输出。特征图之后也是全卷积层,这样的好处是可以处理不同尺寸的图片。然后将第七层的特征图经过2倍上采样,与第六层特征图进行合并。再经过一层卷积,得到输出。


3.根据权利要求1所述的一种基于yolov3-tiny算法的小尺度行人检测方法,其特征在于,...

【专利技术属性】
技术研发人员:胡鹤飞薛文喧唐碧华
申请(专利权)人:北京邮电大学
类型:发明
国别省市:北京;11

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1