The invention discloses a pedestrian detection method based on multi-scale convolution feature, which includes acquiring the image to be recognized and converting it into a set size and storing it as a converted image; inputting the converted image into the VGG16 network model for feature extraction, and storing the output of the last down-sampling layer as the first feature map, and storing the output of the convolution layer before each down-sampling layer as the first one. Second feature map; input the first feature map into the area recommendation network to get the recommendation area of the foreground; intercept the region corresponding to the converted image and the recommendation area as a sub-image, and input the sub-image into the VGG16 network model to get the third feature map of each sub-image; intercept the feature map of the first feature map and all the second feature map corresponding to the third feature map; The third feature map is mosaic of all the feature maps, and then input into the recognition network to identify, and get the probability that the recommended area is the pedestrian.
【技术实现步骤摘要】
基于多尺度的卷积特征的行人检测方法
本专利技术涉及图像识别领域,具体涉及一种基于多尺度的卷积特征的行人检测方法。
技术介绍
由于公共区域管理和安全的需求,智能视频监控成为计算机视觉的重要应用之一。智能视频监控的关键步骤是目标检测,尤其是行人检测,准确的目标检测为后续的智能分析提供了良好基础,例如,目标跟踪、目标识别、人数统计、行人验证等等。现有目标检测方法可以分为传统目标检测方法和基于卷积神经网络的目标检测方法。传统目标检测方法的研究重点在于技巧性地设计合适的特征和强大的分类器,例如:HoG+SVM、HoG+DPM、DOT+RF等等。由于设计的特征表达能力不强,导致传统目标检测方法不能取得令人满意的检测结果,因此,为了提高特征的表达能力,研究者提出了基于卷积神经网络的目标检测方法,例如:DCNN、R-CNN、FasterR-CNN等等。行人检测主要是在目标检测的基础上进行迁移和改进,现在主要用到的是基于深度卷积神经网络的行人检测方法,该方法主要利用了卷积核具有较强的特征提取能力,在提取行人特征后,利用这些特征预测行人位置。2015年,在InternationalConferenceonNeuralInformationProcessingSystems第91-99页发表的名叫FasterR-CNN:towardsreal-timeobjectdetectionwithregionproposalnetworks的文章提供了一种基于深度卷积网络的对象检测方法。该方法先训练了一个叫做RPN的深度卷积网络。该卷积网络利用已经标定好的图像和标定框的参数信息来训练。 ...
【技术保护点】
1.基于多尺度的卷积特征的行人检测方法,其特征在于,包括:获取待识别图像,并将其转换为设定尺寸后存储为转换图像;将转换图像输入VGG16网络模型进行特征提取,并将最后一个下采样层的输出存储为第一特征图,每个下采样层前一个卷积层的输出存储为第二特征图;将第一特征图输入区域推荐网络中,得到前景的推荐区域;截取转换图像与推荐区域对应的区域作为子图像,并将子图像输入VGG16网络模型得到每个子图像的第三特征图;截取第一特征图和所有第二特征图上与第三特征图相对应区域的特征图;将同一第三特征图截取的所有特征图拼接后输入识别网络中进行识别,得到推荐区域是行人的概率。
【技术特征摘要】
1.基于多尺度的卷积特征的行人检测方法,其特征在于,包括:获取待识别图像,并将其转换为设定尺寸后存储为转换图像;将转换图像输入VGG16网络模型进行特征提取,并将最后一个下采样层的输出存储为第一特征图,每个下采样层前一个卷积层的输出存储为第二特征图;将第一特征图输入区域推荐网络中,得到前景的推荐区域;截取转换图像与推荐区域对应的区域作为子图像,并将子图像输入VGG16网络模型得到每个子图像的第三特征图;截取第一特征图和所有第二特征图上与第三特征图相对应区域的特征图;将同一第三特征图截取的所有特征图拼接后输入识别网络中进行识别,得到推荐区域是行人的概率。2.根据权利要求1所述的基于多尺度的卷积特征的行人检测方法,其特征在于,所述VGG16网络模型由重复的卷积层和下采样层组成,其中,卷积层的计算和下采样层的计算分别为:其中,为l层的第j张特征图;为第l层的卷积核;为第l层的平移参数。3.根据权利要求1所述的基于多尺度的卷积特征的行人检测方法,其特征在于,将第一特征图输入区域推荐网络中,得到前景的推荐区域进一步包括:根据预设尺寸将转换图像分割成不重叠的子区域,并以每个子区域内任一点为矩形区块的中心,设置k种长宽不同的矩形区块;将第一特征图输入区域推荐网络中两个独立的卷积层reg和卷积层cls中;采用卷积层reg预测得到每个矩形区块的微调参数,采用卷积层cls输出每个矩形区块的特征图;根据每个矩形区块对应的微调参数,对相应矩形区块的位置进行微调:x=xa+wa*tx,y=ya+ha*ty,其中,xa、ya、ha和wa分别为同一个矩形...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。