The invention provides a pedestrian re-recognition method based on multi-scale feature cutting and fusion, in particular provides a pedestrian re-recognition network training based on multi-scale depth feature cutting and fusion and a pedestrian re-recognition method based on the network, and carries out pedestrian re-recognition through multi-scale global descriptor extraction and local descriptor extraction. The extraction of global descriptors is to average pool and fuse the feature maps of different layers of deep network. The extraction of local descriptors is to divide the deepest feature maps of deep network into several blocks horizontally and extract the local descriptors corresponding to each block of feature maps separately. In training, the network parameters are trained to minimize the smoothing cross-entropy cost function and the cost function of difficult sample sampling triple. The technical scheme of the present invention can solve the problem of feature mismatch caused by pedestrian posture change, camera color deviation and other factors in pedestrian recognition, and eliminate the influence of background, so as to improve the robustness and accuracy of pedestrian recognition.
【技术实现步骤摘要】
一种基于多尺度特征切割与融合的行人重识别方法
本专利技术涉及计算机视觉及图像处理
,具体涉及一种基于多尺度特征切割与融合的行人重识别方法。
技术介绍
行人重识别是匹配非重叠摄像机不同视角下的两个对象是否为同一目标的技术,尤其安防刑事等方面得到了广泛的关注和应用。然而行人重识别技术目前仍存在着巨大的挑战,由于在实际情况下易受到光照,视角,背景等因素的影响,使得行人间的类内(同一个行人)差异甚至大于类间(不同行人)差异,从而导致重识别任务的失败。在实际的行人重识别研究工作中,其主要分为三个步骤:特征提取(行人对象的外观特征表示),距离度量(行人对象的相似性比较)以及反馈优化(对排序结果的优化)。本专利技术主要关注的是对行人外观的特征提取。目前大多数方法在提取图像特征的过程中,都忽略了无关背景信息的影响,使得提取好的图像特征带有较多的噪声;其次,为了解决由于拍摄角度不一以及行人姿态的变化问题,大多数方法采取了先验部位匹配的策略,部位匹配一致后提取同一部位的特征做匹配,效果颇为显著,但同时固定部位的匹配可能会导致丢失其他非匹配部位的显著信息。损失了一部分显著信息,使得在分辨一些在非先验部位具有明显差异的图像上,重识别性能大大降低。
技术实现思路
本专利技术的目的是为了解决现有技术中的上述缺陷,提供一种基于多尺度深度特征切割与融合的行人重识别网络训练及基于该网络的行人重识别方法。本专利技术的目的可以通过采取如下技术方案达到:一种基于多尺度深度特征切割与融合的行人重识别网络训练及基于该网络的行人重识别方法,训练好深度卷积神经网络后,对于定义的检索集与候选集,给定检索 ...
【技术保护点】
1.一种基于多尺度特征切割与融合的行人重识别方法,首先训练深度卷积神经网络,然后对于定义的检索集
【技术特征摘要】
1.一种基于多尺度特征切割与融合的行人重识别方法,首先训练深度卷积神经网络,然后对于定义的检索集与候选集给定检索集从候选集中检索出与检索集特征距离接近的行人图片,其特征在于,所述的方法包括以下步骤:S1、训练数据预处理及数据增强,对训练数据进行RGB三通道归一化和随机翻转;S2、提取全局描述子,通过提取深度网络不同尺度的特征图中的信息,进行特征融合得到全局描述子,过程如下:S2.1、将图像输入到网络的全局分支,得到不同层的多通道特征图;S2.2、对得到的多通道特征图进行池化操作,得到多尺度描述子;S2.3、将多尺度描述子进行特征融合,得到全局描述子;S3、提取局部描述子,通过对网络最后一层的特征图进行分割,获取分块特征图信息,进而降维得到局部描述子,过程如下:S3.1、将图像输入到网络的局部分支,得到末层的多通道特征图;S3.2、对得到的特征图进行分割并池化,得到多个局部描述子;S3.3、对多个局部描述子进行降维操作,减少描述子冗余;S3.4、将多个局部描述子按顺序连接起来,得到局部描述子;S4、训练网络,对全局和局部描述子,以最小化平滑交叉熵代价函数以及难样本采样三元组代价函数为目的训练网络参数训练全局和局部分支;S5、行人重识别,训练直至收敛后,根据提取到的全局描述子和局部描述子,采用度量学习方法计算图像的相似性,由此进行行人重识别。2.根据权利要求1所述的一种基于多尺度特征切割与融合的行人重识别方法,其特征在于,所述的步骤S1中,将输入图像统一变换为长256宽128的大小,采用ImageNet中真实图像的RGB三通道均值和标准差来归一化输入图像,引入概率水平翻转作为数据增强,增强网络鲁棒性。3.根据权利要求1所述的一种基于多尺度特征切割与融合的行人重识别方法,其特征在于,所述的步骤S2.1中,全局分支采用ResNet50结构,输入为256*128*3的图像,取不同尺度的特征图,记作其中,大小为32*16*512,大小为16*8*1024,大小为8*4*2048。4.根据权利要求1所述的一种基于多尺度特征切割与融合的行人重识别方法,其特征在于,所述的步骤S2.2中,通过对按通道进行平均池化得到多尺度描述子f1、f2、f3,其中,f1大小为1*512,f2大小为1*1024,f3大小为1*2048。5.根据权利要求1所述的一种基于多尺度特征切割与融合的行人重识别方法,其特征在于,所述的步骤S2.3中,将f1、f2输入到全连接层实现降维,与f3拼接后通过批规范化层再以ReLU函数作为激活函数得到全局描述子fg;所述的批规范化层和...
【专利技术属性】
技术研发人员:张昱晟,黄昌正,周智恒,许冰媛,陈曦,肖芸榕,
申请(专利权)人:华南理工大学,淮北幻境智能科技有限公司,广州幻境科技有限公司,
类型:发明
国别省市:广东,44
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。