基于三角模型的行人再识别度量方法技术

技术编号:25757428 阅读:41 留言:0更新日期:2020-09-25 21:06
本发明专利技术公开了基于三角模型的行人再识别度量方法,属于计算机视觉和模式识别技术领域。本发明专利技术通过BFE模型提取行人图像的细粒度特征,通过三元组损失函数确定两样本点之间的距离进行测量。本发明专利技术中利用损失函数对多个模型结构的训练具有很好的监督性能,可以有效提高行人再识别准确率,并且在三个数据集上具有良好的泛化能力。本发明专利技术采用BFE模型结构,提出的一种基于三角模型的三元组损失函数方法可以有效提升行人再识别准确度,损失函数对模型的训练有更强的监督作用。

【技术实现步骤摘要】
基于三角模型的行人再识别度量方法
本专利技术属于计算机视觉和模式识别的
,具体涉及基于三角模型的行人再识别度量方法。
技术介绍
在行人再识别研究当中,特征提取和相似度度量是再识别任务的重要步骤。虽然深度神经网络可以提取图像数据中的深度特征,使得模型得到较好的性能提升,但是合适的损失函数也是提高再识别性能的核心问题。良好的相似性度量可以提高图像间的搜索性能,提高模型再识别准确率,特别是当行人类别的数量很大或未知时。三元组损失函数广泛应用于行人再识别任务当中。在本专利技术中,我们以三元组损失函数为基础,为锚样本、正样本和负样本建立三角模型。在样本选择上,采用难样本挖掘的原理,确定三个样本点,根据三角形的角与边的对应关系,重新定义锚样本与正、负样本之间的距离关系,通过在三个公开数据集上的实验,我们证明该方法可以很好的衡量图像之间的相似度指标,有效提升行人再识别精度。
技术实现思路
本专利技术的目的在于提供一种有效提升行人再识别精度的基于三角模型的行人再识别度量方法。基于三角模型的行人再识别度量方法,包括如下步骤:1)以BFE中的网络模型和Resnet50模型为基本模型,其中,BFE模型含有两个分支,一个分支用来学习行人图像的全局特征,另外一个分支用来提取行人图像的细粒度特征;2)以锚样本、正样本和负样本组成三元组损失函数,对锚样本、正样本和负样本构造三角形△apn,其顶点分别为xa,xp和xn,它们的边对应两样本点之间的距离。进一步地,所述步骤1)中两个分支可以对行人图像的全局和细粒度特征进行联合学习。与现有技术相比,本专利技术的有益效果是:1)本专利技术中利用损失函数对多个模型结构的训练具有很好的监督性能,可以有效提高行人再识别准确率,并且在三个数据集上具有良好的泛化能力。2)本专利技术采用BFE模型结构,提出的一种基于三角模型的三元组损失函数方法可以有效提升行人再识别准确度,并且在三个数据集上都有良好的泛化能力和鲁棒性,损失函数对模型的训练有更强的监督作用。具体实施方式下面实施例,对本专利技术的具体实施方式作进一步详细描述。以下实施例用于说明本专利技术,但不用来限制本专利技术的范围。实施例11)以BFE中的网络模型和Resnet50模型为基本模型,其中,BFE模型含有两个分支,一个分支用来学习行人图像的全局特征,另外一个分支用来提取行人图像的细粒度特征;所述两个分支可以对行人图像的全局和细粒度特征进行联合学习。2)以锚样本、正样本和负样本组成三元组损失函数,对锚样本、正样本和负样本构造三角形△apn,其顶点分别为xa,xp和xn,它们的边对应两样本点之间的距离。本专利技术提出三角模型损失的一个关键参数是角,它决定了三元组距离度量增大或减小的程度。为了针对不同的数据集,确定各自最优的角,分别在三个不同的数据集上进行角度参数的实验。实验结果如表1.1、表1.2和表1.3所示。表1.1为在数据集Market1501上的角度实验。我们对角设置从0.001到0.05的实验区间。实验观察得知,当角α=0.008时,mAP和Rank-1指标精度最高,分别达到了80.8%和91.7%。在Rank-5、Rank-10和Rank-20精度比较中,角α=0.01时取得了最大的Rank-5和Rank-20精度,角取得了最大的Rank-10精度,但是角α=0.05的其它评价指标精度较差,因而不能作为最优参数。角α=0.01虽然在两个精度取得了最优,但是mAP和Rank-1指标精度较低,并且角α=0.008在第360个epoch就达到了最优值,而角α=0.01在第400个epoch达到最优值,因而α=0.008比α=0.01具有更强的收敛性。通过实验,在数据集Market1501上,角参数设置为0.008。表1.2为在数据集DukeMTMC-reID上的角度实验。当角α=0.008时,除了Rank-10以外,其余指标全部达到了最优,在Rank-1和Rank-5精度中分别提升了0.9%,因而为数据集DukeMTMC-reID上的最优设置。如表1.3为在CUHK03数据集上的角度实验。CUHK03-label表示行人边界框为手动标记,CUHK03-detect表示行人边界框为自动标记。由实验数据可知,在CUHK03-detect中,当α=0.008时,除了Rank-5指标外,其余四个评价指标都达到了最优,因而α=0.008为CUHK03-detect的最优参数。在CUHK03-label中,α=0.01时三个评价指标比其它取值有明显的优势,其中mAP达到了76.8%,Rank-1指标达到80.0%,Rank-5指标达到了91.6%。因此,α=0.01为在CUHK03-label中的最优值。为了验证我们提出的三角模型损失函数在ReID任务上的优越性能,我们与其它两种损失函数做了对比实验。选择LiftedStructureLoss(LS)与SoftMarginBatch-HardTripletLoss(SMBHT)两种先进损失函数,在具有两个分支的BFE模型中进行实验,评价指标为mAP和Rank-1。得出如表1.4所示的结果。根据实验结果可知,我们提出的基于三角模型的三元组损失函数在所有三个数据集中均表现良好。角α的设置基于不同数据集的最优设置而定,即Market1501、DukeMTMC-reID和CUHK03-detect设置为0.008,CUHK03-label设置为0.01。LS的margin阈值设置为1。在Market1501中,我们的方法比LS的mAP精度高出1.1%,Rank-1精度高出0.7%;比SMBHT的mAP精度高出0.5%,Rank-1精度高出0.3%。在数据集DukeMTMC-reID上,本专利技术方法的mAP精度比LS提高2.2%,Rank-1精度提高2.5%;比SMBHT的mAP精度提高1.9%,Rank-1精度提高1.1%。在CUHK03数据集中,CUHK03-detect和CUHK03-label的mAP精度和Rank-1精度都有较为明显的提升。由于该数据集的训练样本较少,网络容易产生过拟合现象,而本专利技术方法在该数据集上的识别精度的提升,证明了该方法具有更好的识别性能和泛化能力。为了证明本专利技术方法不仅可以使BFE模型的性能提升,在其它网络结构中同样可以提升性能。Resnet50为目前计算机视觉领域各研究课题的一种基本模型,在该模型上的性能提升,可以证明本专利技术方法对其它复杂网络模型同样适用。我们在三个行人再识别数据集中进行了相关实验。实验结果如表1.5。在实验过程中,对Market1501和CUHK03数据集采用本专利技术实验设置的学习率,即epoch小于50时为1e-4×(epoch/5+1),epoch小于200时为1e-3,epoch小于300时为1e-4,300个epoch之后,学习速率衰减为1e-5。对于DukeMTMC-reID数据集,我们设置epoc本文档来自技高网...

【技术保护点】
1.基于三角模型的行人再识别度量方法,其特征在于所述包括如下步骤:/n1)以BFE中的网络模型和Resnet50模型为基本模型,其中,BFE模型含有两个分支,一个分支用来学习行人图像的全局特征,另外一个分支用来提取行人图像的细粒度特征;/n2)以锚样本、正样本和负样本组成三元组损失函数,对锚样本、正样本和负样本构造三角形△apn,其顶点分别为x

【技术特征摘要】
1.基于三角模型的行人再识别度量方法,其特征在于所述包括如下步骤:
1)以BFE中的网络模型和Resnet50模型为基本模型,其中,BFE模型含有两个分支,一个分支用来学习行人图像的全局特征,另外一个分支用来提取行人图像的细粒度特征;
2)以锚样本、正样本和负样本组成三...

【专利技术属性】
技术研发人员:张红任伟李建华徐志刚曹洁
申请(专利权)人:兰州理工大学
类型:发明
国别省市:甘肃;62

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1