基于密度级联聚类的密集区域目标检测方法技术

技术编号:37703506 阅读:15 留言:0更新日期:2023-06-01 23:50
本发明专利技术涉及一种基于密度级联聚类的密集区域目标检测算法。检测网络由特征提取网络,特征分类网络和特征回归网络部分构成,本发明专利技术的改进主要在特征提取网络之后对候选框进行密度区域的划分。对RPN中获得的前景框进行密度聚类,然后以级联的方式回归到第二密度区域以获得三个密度区域和阈值,在三个区域分别自适应的学习NMS阈值。使得网络具有空域注意力机制,分辨出具有高密度区域高重叠度区域的实例,并根据学习到的密度区域划分不同的NMS阈值,使得网络对于高密集高重叠区域减少出现漏检的情况。检的情况。检的情况。

【技术实现步骤摘要】
基于密度级联聚类的密集区域目标检测方法


[0001]本专利技术属于目标检测领域,尤其涉及基于密度级联聚类的密集区域目标检测方法。

技术介绍

[0002]现有的双阶段的目标检测算法会产生大量接近于真值框的候选框,因此需要采用非极大值抑制方法NMS进行候选框后处理,但是NMS阈值选择过高导致产生大量错误的候选框,过低导致高重叠部分的候选框被

抑制

而丢失。现有的模型在一次回归阶段比较粗糙,导致大量进入二次回归的候选框要么大量属于同一检测目标,造成局部区域相邻目标候选框偏值较大,网络在二次回归中容易让相邻的候选框陷入局部震荡,降低整体网络的推理速度和检测框的AP。

技术实现思路

[0003]本专利技术目的是提供一种基于密度级联聚类的密集区域目标检测算法,通过密度聚类RPN算法,对在RPN中获得的前景框进行密度聚类,然后以级联的方式回归到第二密度区域以获得三个密度区域和阈值,在三个区域分别自适应的学习NMS阈值。
[0004]本专利技术为实现上述目的所采用的技术方案是:
[0005]基于密度级联聚类的密集区域目标检测方法,包括以下步骤:
[0006]获取待检测图像,并在图像中使用边界框标注出目标,作为训练标签;
[0007]使用VGG网络对待检测图像进行特征提取;
[0008]基于RPN网络识别特征中的前景框和背景框,并对前景框进行边界框回归,得到不同密度区域的NMS阈值,作为建议;
[0009]将RPN网络输出的建议映射到卷积神经网络最后一层的特征图,基于ROIpooling生成固定长度的建议,对建议进行第二次分类和边界框回归,将最终得到的边界框作为检测到的目标。
[0010]所述对前景框进行边界框回归,具体为:根据RPN网络中获得的前景框进行密度聚类,得到第一密度区域,然后通过密度级联聚类算法回归到第二密度区域,以获得三个密度区域和阈值,在三个区域分别自适应的学习NMS阈值。
[0011]在所述密度聚类时,通过以下公式在实例的ε邻域里搜索密度区域:
[0012]N
ε
(x
j
)={x
i
∈D|distance(x
i
,x
j
)≤ε}
[0013]其中,x
i
,x
j
表示输入图像通过一次回归产生的前景框转换的中心点,D表示整个实例框坐标集合,N
ε
(x
j
)表示子样本集中的样本数量,distance(*,*)表示两个实例点的欧几里得距离,ε表示密度空间的半径。
[0014]子样本集中的样本数量N
ε
(x
j
)作为密度区域的条件为:
[0015][0016]其中,|MinPts|表示子密集区域半径。
[0017]所述密度级联聚类算法具体为:通过K

级联回归划分多个密度区域,将不同密度区域的前景框送入不同阈值的非极大值抑制NMS中进行计算,其公式为:
[0018][0019]其中,γ(x
t
)表示级联回归的密度区域,表示第一密度区域,表示第二密度区域。
[0020]所述ROIpooling通过损失函数,判断训练是否结束,当损失函数最小时,停止训练,输出当前的建议,所述损失函数为:
[0021][0022]其中,N
cls
,N
reg
分别表示分类损失样本总数和回归样本总数,λ为损失平衡系数,p
i
表示样本真实类别值,t
i
表示样本真实前景框,表示样本预测类别值,表示样本预测前景框,L
cls
,L
reg
分别表示交叉熵分类损失和二范式回归损失,当p=1表示样本分类正确,p=0表示样本分类错误,t为前景框偏移量合。
[0023]基于密度级联聚类的密集区域目标检测系统,包括:
[0024]图像获取模块,用于获取待检测图像,并在图像中使用边界框标注出目标,作为训练标签;
[0025]特征提取模块,用于使用VGG网络对待检测图像进行特征提取;
[0026]密度聚类模块,用于基于RPN网络识别特征中的前景框和背景框,并对前景框进行边界框回归,得到不同密度区域的NMS阈值,作为建议;
[0027]目标识别模块,用于将RPN网络输出的建议映射到卷积神经网络最后一层的特征图,基于ROIpooling生成固定长度的建议,对建议进行第二次分类和边界框回归,将最终得到的边界框作为检测到的目标。
[0028]基于密度级联聚类的密集区域目标检测系统,包括存储器和处理器;所述存储器,用于存储计算机程序;所述处理器,用于当执行所述计算机程序时,实现所述的基于密度级联聚类的密集区域目标检测方法。
[0029]一种计算机可读存储介质,所述存储介质上存储有计算机程序,当所述计算机程序被处理器执行时,实现所述的基于密度级联聚类的密集区域目标检测方法。
[0030]本专利技术具有以下有益效果及优点:
[0031]1.本专利技术对候选框进行密度区域的划分,使得网络具有空域注意力机制,分辨出具有高密度区域高重叠度区域的实例,并根据学习到的密度区域划分不同的NMS阈值,使得网络对于高密集高重叠区域减少出现漏检的情况。
[0032]2.本专利技术精细化一次回归对前景框的删选过程,让网络学习到基于数据集的

密度分布

,从而实现一次回归中的更精细的局部抑制过程。
[0033]3.本专利技术提出了Dense

RPN结构,根据目标密度划分密集区域,使网络注意到难以检测的区域。
[0034]4.本专利技术没有增加网络参数,在同等推理速度下具有更明显的精度优势。
[0035]5.本专利技术在RailwayPole和CrowdHuman数据集上取得了最先进的结果。
附图说明
[0036]图1为密度级联聚类检测网络结构图;
[0037]图2为锚框点密度级联聚类可视化示意图;
[0038]图3为RailwayPole数据集与其它数据集比较示意图,(a)实例绝对尺寸比例(b)实例相对尺寸比例;
[0039]图4为不同场景下检测网络结果对比图。
具体实施方式
[0040]下面结合附图及实施例对本专利技术做进一步的详细说明。
[0041]如图1所示,本专利技术提供了一种基于密度级联聚类的密集区域目标检测方法,本方法尤其涉及密集区域目标检测中的行人检测和电线杆检测。包括以下步骤:
[0042]1)从同摄像机同角度收集高分辨率的视频。并对每隔2帧从视频中采样一次图像最后人工标注了10841个电线杆的边界框。
[0043]2)使用VGG网络进行特征提取。
[0044]3)基于RPN识别前景框和背景框,并对前景框进行边本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.基于密度级联聚类的密集区域目标检测方法,其特征在于,包括以下步骤:获取待检测图像,并在图像中使用边界框标注出目标,作为训练标签;使用VGG网络对待检测图像进行特征提取;基于RPN网络识别特征中的前景框和背景框,并对前景框进行边界框回归,得到不同密度区域的NMS阈值,作为建议;将RPN网络输出的建议映射到卷积神经网络最后一层的特征图,基于ROIpooling生成固定长度的建议,对建议进行第二次分类和边界框回归,将最终得到的边界框作为检测到的目标。2.根据权利要求1所述的基于密度级联聚类的密集区域目标检测方法,其特征在于,所述对前景框进行边界框回归,具体为:根据RPN网络中获得的前景框进行密度聚类,得到第一密度区域,然后通过密度级联聚类算法回归到第二密度区域,以获得三个密度区域和阈值,在三个区域分别自适应的学习NMS阈值。3.根据权利要求2所述的基于密度级联聚类的密集区域目标检测方法,其特征在于,在所述密度聚类时,通过以下公式在实例的ε邻域里搜索密度区域:N
ε
(x
j
)={x
i
∈D|distance(x
i
,x
j
)≤ε}其中,x
i
,x
j
表示输入图像通过一次回归产生的前景框转换的中心点,D表示整个实例框坐标集合,N
ε
(x
j
)表示子样本集中的样本数量,distance(*,*)表示两个实例点的欧几里得距离,ε表示密度空间的半径。4.根据权利要求3所述的基于密度级联聚类的密集区域目标检测方法,其特征在于,子样本集中的样本数量N
ε
(x
j
)作为密度区域的条件为:其中,|MinPts|表示子密集区域半径。5.根据权利要求2所述的基于密度级联聚类的密集区域目标检测方法,其特征在于,所述密度级联聚类算法具体为:通过K

级联回归划分多个密度区域,将不同密度区域的前景框送...

【专利技术属性】
技术研发人员:周颖夏纯袁伟亮张静王开泉张吉亮朱胜杰
申请(专利权)人:山东同创智能科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1