当前位置: 首页 > 专利查询>北京大学专利>正文

行人身份再识别方法及存储介质技术

技术编号:26651063 阅读:35 留言:0更新日期:2020-12-09 00:51
本申请公开了一种行人身份再识别方法及存储介质,该方法包括:对图像识别神经网络模型进行调整;检测调整后的图像识别神经网络模型的识别准确度;根据所述识别准确度判断所述图像识别神经网络模型是否训练完成;若是,则利用训练完成的图像识别神经网络模型针对行人图像进行身份再识别处理;若否,则转向所述对图像识别神经网络模型进行调整。本申请实施例提供的行人身份再识别方法,兼顾视觉相似性和时间一致性,实现无监督行人身份再识别,具有更强的鲁棒性和更好的性能,可以用于无标记信息的情况下提取具有高判别力和高鲁棒性的行人特征,可应用于行人的准确检索与匹配。

【技术实现步骤摘要】
行人身份再识别方法及存储介质
本申请涉及计算机视觉
,具体涉及一种联合视觉相似性和时间一致性的无监督的行人身份再识别方法及存储介质。
技术介绍
行人身份再识别(ReID)的目的是通过匹配他/她的图像或视频序列来识别摄像头网络中的行人,该技术有很多有前景的应用,如智能监控和刑事调查。近年来,有监督的行人身份再识别(ReID)技术在从带标签的人物图像和视频中进行区别特征学习方面取得了显著进展。然而,有监督的行人身份再识别方法依赖于大量标记成本昂贵的已标记数据。当转换到不同的目标域时,在源域上训练的深度模型的性能会显著下降。这些问题导致在实际应用程序中部署有监督的ReID模型变得困难。为了解决这个问题,研究人员将注意力集中在无监督学习上,无监督学习可以利用大量的未标记数据进行训练。与有监督学习相比,无监督学习减少了昂贵的数据注释需求,因此更有可能将行人ReID推向真实应用。最新的研究将无监督的行人ReID定义为利用其他领域已标记数据的转移学习任务。相关工作可归纳为两类:(1)利用生成性对抗网络(GAN,GenerativeAdversarialNetwork)将图像风格从已标记的源域转移到未标记的目标域,同时保留用于训练的身份标签;或(2)对源域上的深层模型进行预训练,然后对目标域中未标记的数据进行聚类以便估计用于训练的伪标签。第二类显著提高了无监督行人ReID的性能。然而,在有监督的和无监督的行人ReID之间仍然存在相当大的差距。原因可能是因为很多人都有相似的外表,而同一个人可能会呈现出不同的外表,导致不可靠的标签判断。因此,更有效地利用未标记数据的方法仍有待研究。
技术实现思路
本申请的目的是提供一种行人身份再识别方法及存储介质。为了对披露的实施例的一些方面有一个基本的理解,下面给出了简单的概括。该概括部分不是泛泛评述,也不是要确定关键/重要组成元素或描绘这些实施例的保护范围。其唯一目的是用简单的形式呈现一些概念,以此作为后面的详细说明的序言。根据本申请实施例的一个方面,提供一种行人身份再识别方法,包括:对图像识别神经网络模型进行调整;检测调整后的图像识别神经网络模型的识别准确度;根据所述识别准确度判断所述图像识别神经网络模型是否训练完成;若是,则利用训练完成的图像识别神经网络模型针对行人图像进行身份再识别处理;若否,则转向所述对图像识别神经网络模型进行调整。进一步地,所述对图像识别神经网络模型进行调整,包括:获取图像识别神经网络模型的整体损失;利用所述整体损失更新所述图像识别神经网络模型。进一步地,所述获取图像识别神经网络模型的整体损失,包括:获取已标记源域上的最小化交叉熵损失;通过自适应分类模型获取最小化分类局部损失;通过时间引导的聚类模型获取多标签分类全局损失;对所述最小化交叉熵损失进行加权求和,以得到的和作为所述图像识别神经网络模型的整体损失。进一步地,所述获取已标记源域上的最小化交叉熵损失,包括:计算所述已标记源域中的各图像属于各类别的概率;对各所述概率进行取对数操作,得到取对数后的值;计算各所述取对数后的值的平均值;对所述平均值进行取负数操作,得到所述已标记源域上的最小化交叉熵损失。进一步地,所述通过自适应分类模型获取最小化分类局部损失,包括:从未标记目标域中抽取若干样本图像;通过自适应分类模型给各所述样本图像分配不同的行人身份标签;生成分类器,利用所述分类器对分配行人身份标签后的样本图像进行分类;计算分类后的样本图像所对应的分类分数;比较所述分类分数与one-hot标签,计算各所述样本图像所对应的损失;计算各所述样本图像所对应的损失的平均值,得到最小化分类局部损失。进一步地,所述生成分类器,包括:针对每一所述样本图像进行增强,生成对应的若干个增强图像;计算每一所述样本图像及其对应的增强图像的平均特征;利用所述平均特征构成张量,得到分类器。进一步地,所述通过时间引导的聚类模型获取多标签分类全局损失,包括:通过时间引导的聚类模型对未标记目标域的图像进行多标签分类,得到多标签分类后的图像;计算各所述多标签分类后的图像的分类分数;比较所述分类分数与预测标签,计算各所述多标签分类后的图像所对应的多标签分类损失;计算各所述多标签分类损失的平均值,得到多标签分类全局损失。进一步地,所述检测调整后的图像识别神经网络模型的识别准确度,包括:针对若干图像对,利用所述调整后的图像识别神经网络模型计算每一图像对的两图像之间的相似性;根据所述一致性判断所述图像对的两图像是否为同一人的图像;根据对所有图像对进行判断的结果,计算识别准确度。进一步地,所述计算每一图像对的两图像之间的相似性,包括:计算所述两图像之间的视觉相似性;计算所述两图像之间的时间一致性;基于所述视觉相似性和所述时间一致性,计算联合相似函数值,得到所述两图像之间的相似性。根据本申请实施例的另一个方面,提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行,以实现上述的行人身份再识别方法。本申请实施例的其中一个方面提供的技术方案可以包括以下有益效果:本申请实施例提供的行人身份再识别方法,兼顾视觉相似性和时间一致性,实现无监督行人身份再识别,具有更强的鲁棒性和更好的性能,可以用于无标记信息的情况下提取具有高判别力和高鲁棒性的行人特征,可应用于行人的准确检索与匹配。本申请的其他特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者,部分特征和优点可以从说明书中推知或毫无疑义地确定,或者通过实施本申请实施例了解。本申请的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。附图说明为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。图1示出了本申请的一个实施例的行人身份再识别方法流程图;图2示出了行人身份再识别模型训练框架图;图3示出了分别通过视觉相似性和联合相似度进行行人再识别所得到的结果图。具体实施方式为了使本申请的目的、技术方案及优点更加清楚明白,下面结合附图和具体实施例对本申请做进一步说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。本
技术人员可以理解,除非另外定义,这里使用的所有术语(包括本文档来自技高网
...

【技术保护点】
1.一种行人身份再识别方法,其特征在于,包括:/n对图像识别神经网络模型进行调整;/n检测调整后的图像识别神经网络模型的识别准确度;/n根据所述识别准确度判断所述图像识别神经网络模型是否训练完成;/n若是,则利用训练完成的图像识别神经网络模型针对行人图像进行身份再识别处理;/n若否,则转向所述对图像识别神经网络模型进行调整。/n

【技术特征摘要】
1.一种行人身份再识别方法,其特征在于,包括:
对图像识别神经网络模型进行调整;
检测调整后的图像识别神经网络模型的识别准确度;
根据所述识别准确度判断所述图像识别神经网络模型是否训练完成;
若是,则利用训练完成的图像识别神经网络模型针对行人图像进行身份再识别处理;
若否,则转向所述对图像识别神经网络模型进行调整。


2.根据权利要求1所述的方法,其特征在于,所述对图像识别神经网络模型进行调整,包括:
获取图像识别神经网络模型的整体损失;
利用所述整体损失更新所述图像识别神经网络模型。


3.根据权利要求2所述的方法,其特征在于,所述获取图像识别神经网络模型的整体损失,包括:
获取已标记源域上的最小化交叉熵损失;
通过自适应分类模型获取最小化分类局部损失;
通过时间引导的聚类模型获取多标签分类全局损失;
对所述最小化交叉熵损失进行加权求和,以得到的和作为所述图像识别神经网络模型的整体损失。


4.根据权利要求3所述的方法,其特征在于,所述获取已标记源域上的最小化交叉熵损失,包括:
计算所述已标记源域中的各图像属于各类别的概率;
对各所述概率进行取对数操作,得到取对数后的值;
计算各所述取对数后的值的平均值;
对所述平均值进行取负数操作,得到所述已标记源域上的最小化交叉熵损失。


5.根据权利要求3所述的方法,其特征在于,所述通过自适应分类模型获取最小化分类局部损失,包括:
从未标记目标域中抽取若干样本图像;
通过自适应分类模型给各所述样本图像分配不同的行人身份标签;
生成分类器,利用所述分类器对分配行人身份标签后的样本图像进行分类;
计算分类后的样本图像所对应的分类分数;
...

【专利技术属性】
技术研发人员:张史梁李佳宁
申请(专利权)人:北京大学
类型:发明
国别省市:北京;11

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1