一种密集目标检测方法技术

技术编号:23363709 阅读:60 留言:0更新日期:2020-02-18 17:34
一种密集目标检测方法,属于图像捕获技术领域,其基于卷积神经网络YOLO v3目标检测网络,包括以下步骤:步骤S1,收集目标检测图像数据集,并生成密集目标数据集;步骤S2,构建模型;步骤S3,训练网络模型并保存参数权重。本发明专利技术基于YOLO v3网络模型及算法,对算法进行改进,通过扩增密集目标样本数据集、增加边缘信息通道和更改锚点框中心点坐标等方法,增强YOLO v3网络模型密集目标检测精度及召回率并获得有益效果。

A dense target detection method

【技术实现步骤摘要】
一种密集目标检测方法
本专利技术属于图像捕获
,具体涉及为一种密集目标检测方法。
技术介绍
随着科技进步和深度学习算法的普及,深度学习目标检测算法也逐步应用于安防及工业检测各个领域,比如:行人识别、车辆识别、工业缺陷检测、自动驾驶等各种应用场景。目标检测方法作为模式识别领域的基础算法,然而在密集目标场景下现有目标检测方法常常存在一些问题,如密集目标的误检和漏检常常出现,其原因主要是密集目标相互遮挡和重合常常使算法在准确率和精度上产生严重损失。对于密集目标检测精度低的问题,传统的解决方案,常常从两方面对些问题进行一定程度上的修正,一方面,从数据集收集上,从现实场景收集更多密集场景数据集进行人工标注并进行训练,这种方法效率比较低,需要付出更多人力成本和时间成本;另一个方面,有些方案增加新的损失函数用来约束检测目标之间的距离,使得检测目标之间尽量保持更远的距离,这种方案虽然对可分离密集目标产生较好的效果,但对于待检测目标本身就相邻的情况效果还有一定的限制。因此,针对上述问题,有必要研发一种密集目标检测的方法。
技术实现思路
本专利技术的目的在于克服上述提到的缺陷和不足,而提供一种密集目标检测方法。为了解决上述技术问题,采用如下技术方案:一种密集目标检测方法,其基于卷积神经网络YOLOv3目标检测网络,包括以下步骤:步骤S1,收集目标检测图像数据集,并生成密集目标数据集:按照所需检测目标类别,通过收集与人工采集方法收集目标检测图像数据集,并根据需要进行目标标注,得到现有数据集,并使用图像处理算法基于现有数据集生成密集目标样本训练网络,得到密集目标数据集;步骤S2,构建模型:训练数据准备加载过程中,对原图像数据进行增加边缘信息通道数据并存储,并将密集目标数据集进行划分,分为训练集和验证集,构建YOLOv3网络网络模型;步骤S3,训练网络模型并保存参数权重;使用上一步划分的训练集对YOLOv3网络模型参数进行训练,修改中等尺度下锚点框中心位置及锚点框个数,训练中同时使用验证集对精度和召回率指标进行测试,当验证集指标开始下降时,对网络模型停止训练并保存参数权重。所述步骤S1中,使用图像处理算法生成一定比率密集样本数据的密集目标样本训练网络,具体比率数值可视具体检测目标而定,一般在30%∼60%之间,生成方法如下:S1.1,读取标注样本图像和标注数据,得到每个图片样本的标注信息的统计情况,包含标注类别,需要建立密集目标类别的标注目标面积及长宽比;S1.2,根据S1.1步统计情况,提取出目标面积在最大目标面积为30%∼65%(比率区间根据实际情况修改)之间的样本,根据目标标注框从原图像上剪切出目标小图片并保存,同时保存目标掩码信息,建立侯选目标集合S保存文件信息,和该目标图像对应的宽高信息;S1.3,以图像标注信息为单位遍历现有数据集,找出预生成密集目标群的中心目标对象,即该目标对象周围3倍自己宽高范围内不存在其它已经标注的目标,即在该目标周围生成密集目标,这里定义该目标对象为T;S1.4,现建立两个记录集合,一个集合G负责保存生成密集目标T信息和插入添加的目标信息,主要包括坐标位置与宽高,另一个集合O用以保存该图像中除T之外的所有目标信息;S1.5,在密集目标T周围一定范围L内生成要添加的目标坐标位置,随着生成目标的增多,L数值标量不断增长且小于某最大值,如L为初始一倍宽高均值,最大值为3倍宽高均值。再从第S1.2步的目标集合S中抽取待插入样本I,根据目标集合S中保存的样本信息和刚刚生成目标位置构成新生成目标的坐标和宽高信息,计算待插入样本I与集合G中目标的面积交并比IOU和与集合O中的目标IOU,如果与集合G中的IOU至少有一个IOU值位于0.1∼0.35之间且均小于0.35,与集合O中IOU均小于0.2,则认为该待插入样本I符合插入条件,即对样本I进行图像掩码插入粘贴,将样本I信息加入集合G,重复S1.5,直至超过最大尝试次数阀值;两个目标面积交并比IOU,目标检测中一个概念,是产生候选框与原标记框的交叠率,即它们的交集与并集的比值;S1.6,重复进行S1.3,S1.4和S1.5步,直至密集目标数据集建立完成。所述步骤S1.5中,产生候选框(Candidatebound)与原标记框(Groundtruthbound)的交叠率IOU,用公式1来表示:其中,式中area(C)表示侯选框(candidatebound)的面积,(cx1,cy1)和(cx2,cy2)分别表示侯选框(candidatebound)的左上角坐标与右下角坐标,area(G)表示真实目标框(ground-truthbound)的面积,(gx1,gy1)和(gx2,gy2)分别表示真实目标框(ground-truthbound)的左上角坐标与右下角坐标。步骤S2中,使用图像处理边缘检测算法对输入原图像进行边缘信息检测提取,得到边缘信息通道E(Edge),将该边缘信息通道加在原图像数据RGB信息通道之后,得到4通道图像信息(RGBE)输入数据;边缘检测提取算法优选使用Sobel边缘检测算法或者Laplace算法。步骤S3中,YOLOv3网络使用基于先验锚点框的方法对检测目标位置及宽高进行校正回归检测,首先,YOLOv3网络对原图像划分为三种不同尺度的SxS的网格,同时,这三个尺度的网格分别由三个与之对应的SxS大小的特征图来负责检测,分别为13x1326x2652x52个网格CELL;将YOLOv3中锚点框中心点位于同一点修改调整为分离中心点位置,在中等尺度特征图(featuremap大小为26x26像素)上,原版YOLOv3在26x26像素大小的特征图上的锚点框集合表示如公式2所示:其中,式中i,j表示26x26像素中等尺度特征图的X方向和Y方向上位置坐标索引,Anchorcoordinate表示锚点框的坐标,由Xanchor,Yanchor,Wanchor,Hanchor四部分组成,分别代表锚点框中心点X方向上坐标,Y方向上坐标,锚点框的宽,锚点框的高信息;在此,中等尺度特征图锚点框坐标修改如公式3所示,并对26x26每个预测网格增加一个锚点框:其中,式中i,j表示26x26像素中等尺度特征图的X方向和Y方向上位置坐标索引,Anchorcoordinate表示锚点框的坐标,由Xanchor,Yanchor,Wanchor,Hanchor四部分组成,分别代表锚点框中心点X方向上坐标,Y方向上坐标,锚点框的宽,锚点框的高信息。本专利技术上涉及的专业名词进行如下解释说明:YOLO:一个开源的深度学习目标检测项目,特点是检测速度快且准确率较高。最新版本为2018年3月推出的V3版本,与老版本相比,准确率有较大提升。本专利技术基于YOLOv3网络模型及算法,对算法进行改进,通过扩增密集目标样本数据集、增加边缘信息通道和更改锚点框中心点坐标等方法,增强本文档来自技高网...

【技术保护点】
1.一种密集目标检测方法,其特征在于,其基于卷积神经网络YOLO v3目标检测网络,包括以下步骤:/n步骤S1,收集目标检测图像数据集,并生成密集目标数据集:/n按照所需检测目标类别,通过收集与人工采集方法收集目标检测图像数据集,并根据需要进行目标标注,得到现有数据集,并使用图像处理算法基于现有数据集生成密集目标样本训练网络,得到密集目标数据集;/n步骤S2,构建模型:/n训练数据准备加载过程中,对原图像数据进行增加边缘信息通道数据并存储,并将密集目标数据集进行划分,分为训练集和验证集,构建YOLO v3网络网络模型;/n步骤S3,训练网络模型并保存参数权重;/n使用上一步划分的训练集对YOLO v3网络模型参数进行训练,修改中等尺度下锚点框中心位置及锚点框个数,训练中同时使用验证集对精度和召回率指标进行测试,当验证集指标开始下降时,对网络模型停止训练并保存参数权重。/n

【技术特征摘要】
1.一种密集目标检测方法,其特征在于,其基于卷积神经网络YOLOv3目标检测网络,包括以下步骤:
步骤S1,收集目标检测图像数据集,并生成密集目标数据集:
按照所需检测目标类别,通过收集与人工采集方法收集目标检测图像数据集,并根据需要进行目标标注,得到现有数据集,并使用图像处理算法基于现有数据集生成密集目标样本训练网络,得到密集目标数据集;
步骤S2,构建模型:
训练数据准备加载过程中,对原图像数据进行增加边缘信息通道数据并存储,并将密集目标数据集进行划分,分为训练集和验证集,构建YOLOv3网络网络模型;
步骤S3,训练网络模型并保存参数权重;
使用上一步划分的训练集对YOLOv3网络模型参数进行训练,修改中等尺度下锚点框中心位置及锚点框个数,训练中同时使用验证集对精度和召回率指标进行测试,当验证集指标开始下降时,对网络模型停止训练并保存参数权重。


2.如权利要求1所述的一种密集目标检测方法,其特征在于,所述步骤S1中,使用图像处理算法生成一定比率密集样本数据的密集目标样本训练网络,具体比率数值可视具体检测目标而定,一般在30%∼60%之间,生成方法如下:
S1.1,读取标注样本图像和标注数据,得到每个图片样本的标注信息的统计情况,包含标注类别,需要建立密集目标类别的标注目标面积及长宽比;
S1.2,根据S1.1步统计情况,提取出目标面积在最大目标面积为30%∼65%之间的样本,根据目标标注框从原图像上剪切出目标小图片并保存,同时保存目标掩码信息,建立侯选目标集合S保存文件信息,和该目标图像对应的宽高信息;
S1.3,以图像标注信息为单位遍历现有数据集,找出预生成密集目标群的中心目标对象,即该目标对象周围3倍自己宽高范围内不存在其它已经标注的目标,即在该目标周围生成密集目标,这里定义该目标对象为T;
S1.4,现建立两个记录集合,一个集合G负责保存生成密集目标T信息和插入添加的目标信息,主要包括坐标位置与宽高,另一个集合O用以保存该图像中除T之外的所有目标信息;
S1.5,在密集目标T周围一定范围L内生成要添加的目标坐标位置,随着生成目标的增多,L数值标量不断增长且小于某最大值,如L为初始一倍宽高均值,最大值为3倍宽高均值;再从第S1.2步的目标集合S中抽取待插入样本I,根据目标集合S中保存的样本信息和刚刚生成目标位置构成新生成目标的坐标和宽高信息,计算待插入样本I与集合G中目标的面...

【专利技术属性】
技术研发人员:毕海徐晓刚门光文焦振秋
申请(专利权)人:智慧视通杭州科技发展有限公司
类型:发明
国别省市:浙江;33

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1