一种基于时空信息的行人重识别方法及装置制造方法及图纸

技术编号:24996979 阅读:36 留言:0更新日期:2020-07-24 17:59
本发明专利技术公开了一种基于时空信息的行人重识别方法及装置,该基于时空信息的行人重识别方法包括:获取待识别图像集;根据所述待识别图像集得到目标待识别图像集;根据预设的卷积神经网络模型提取所述目标待识别图像集的目标特征,所述目标特征包括时间特征和空间特征;获取所述目标特征的余弦距离,并根据所述余弦距离确定所述目标特征的相似度;根据所述相似度和时空概率确定行人重识别结果。本发明专利技术通过提取行人图像的时间信息和空间信息并根据时间信息和空间信息来对行人进行识别,从而提高视频行人重识别的准确率。

【技术实现步骤摘要】
一种基于时空信息的行人重识别方法及装置
本专利技术涉及模型构造
,具体涉及一种基于时空信息的行人重识别方法及装置。
技术介绍
行人重识别是指在不同摄像头场景下识别出行人身份的技术,是视频监控分析技术中非常重要的一部分,在智能视频监控、预防犯罪发生、维护社会治安等方面发挥着重要的作用。近年来,深度学习的方法被广泛应用图像分类、目标识别等多个计算机视觉领域,相比于传统人工设计方法,深度学习能够取得更好的性能,然而由于监控视频比较复杂,受到剧烈变化的光照、天气、视角变换、行人姿态等因素的影响,以及成像设备分辨率差的影响,使得在不同摄像头下识别出同一行人比较困难,行人重识别准确率低。
技术实现思路
本专利技术要解决的技术问题在于克服现有技术中行人重识别准确率低缺陷,从而提供一种基于时空模型的行人重识别方法及装置。根据第一方面,本专利技术实施例公开了一种基于时空信息的行人重识别方法,包括如下步骤:获取待识别图像集;根据所述待识别图像集得到目标待识别图像集;根据预设的卷积神经网络模型提取所述目标待识别图像集的目标特征,所述目标特征包括时间特征和空间特征;获取所述目标特征的余弦距离,并根据所述余弦距离确定所述目标特征的相似度;根据所述相似度和时空概率确定行人重识别结果。结合第一方面,在第一方面第一实施方式中,所述根据所述待识别图像集得到目标待识别图像集,包括:对所述待识别图像集进行行人检测,得到第一待识别图像集;对所述第一待识别图像集进行筛选,得到所述目标识别图像集。结合第一方面第一实施方式,在第一方面第二实施方式中,通过如下步骤确定所述时空概率:获取行人图像的时间信息和空间信息;根据所述时间信息和空间信息得到迁移时间差;根据所述迁移时间差得到时空概率。结合第一方面,在第一方面第三实施方式中,所述方法还包括:获取训练图像集;根据所述训练图像集对神经网络模型进行训练,得到一个卷积神经网络模型。根据第二方面,本专利技术实施例还公开了一种基于时空信息的行人重识别装置,包括:第一获取模块,用于获取待识别图像集;目标待识别图像集获取模块,用于根据所述待识别图像集得到目标待识别图像集;提取模块,用于根据预设的卷积神经网络模型提取所述目标待识别图像集的目标特征,所述目标特征包括时间特征和空间特征;第二获取模块,用于获取所述目标特征的余弦距离,并根据所述余弦距离确定所述目标特征的相似度;确定模块,用于根据所述相似度和时空概率确定行人重识别结果。结合第二方面,在第二方面第一实施方式中,所述目标待识别图像集获取模块包括:检测模块,用于对所述待识别图像集进行行人检测,得到第一待识别图像集;筛选模块,用于对所述第一待识别图像集进行筛选,得到所述目标识别图像集。结合第二方面第一实施方式,在第二方面第二实施方式中,所述装置还包括:第三获取模块,用于获取行人图像的时间信息和空间信息;迁移时间差获取模块,用于根据所述时间信息和空间信息得到迁移时间差;时空概率获取模块,用于根据所述迁移时间差得到时空概率。结合第二方面,在第二方面第三实施方式中,所述装置还包括:第四获取模块,用于获取训练图像集;训练模块,用于根据所述训练图像集对神经网络模型进行训练,得到一个卷积神经网络模型。根据第三方面,本专利技术实施例还公开了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器执行如第一方面或第一方面任一实施方式所述基于时空信息的行人重识别方法。根据第四方面,本专利技术实施例还公开了一种计算机可读存储介质,其上存储有计算机指令,该指令被处理器执行时实现如第一方面或第一方面任一实施方式所述基于时空信息的行人重识别方法。本专利技术技术方案,具有如下优点:本专利技术提供的基于时空信息的行人重识别方法及装置,通过获取待识别图像集,根据待识别图像集得到目标待识别图像集,根据预设的卷积神经网络模型提取目标待识别图像集的目标特征,目标特征包括时间特征和空间特征,获取目标特征的余弦距离,并根据余弦距离确定目标特征的相似度,根据相似度和时空概率确定行人重识别结果。本专利技术通过提取行人图像的时间信息和空间信息并根据时间信息和空间信息来对行人进行识别,从而提高视频行人重识别的准确率。附图说明为了更清楚地说明本专利技术具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本专利技术的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。图1为本专利技术实施例1中基于时空信息的行人重识别方法的一个具体示例的流程图;图2为本专利技术实施例2中基于时空信息的行人重识别装置的一个具体示例的原理框图;图3为本专利技术实施例3中电子终端的一个具体示例图。具体实施方式下面将结合附图对本专利技术的技术方案进行清楚、完整地描述,显然,所描述的实施例是本专利技术一部分实施例,而不是全部的实施例。基于本专利技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本专利技术保护的范围。术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。此外,下面所描述的本专利技术不同实施方式中所涉及的技术特征只要彼此之间未构成冲突就可以相互结合。实施例1本专利技术实施例提供一种基于时空信息的行人重识别方法,应用于电子围网监控视频中,如图1所示,包括如下步骤:S11:获取待识别图像集。示例性地,待识别图像集可以是电子围网跨摄像设备采集的监控视频,该待识别图像集可以是用户通过有线或无线方式直接上传到终端中,也可以是在终端录入得到。本申请实施例对待识别图像的获取方式不作具体限定,本领域技术人员可以根据实际使用需要确定。S12:根据待识别图像集得到目标待识别图像集。示例性地,目标待识别图像集可以认为是包含行人的、无遮挡且清晰的图像集,可以通过人工标注或自动标注的方式实现行人检测,本申请实施例可以将第一待识别图像集输入到行人检测神经网络模型中,输出得到包含行人的图像集。S13:根据预设的卷积神经网络模型提取的目标特征,目标特征包括时间特征和空间特征。示例性地,根据预设的卷积神经网络模型提取目标待识别图像集的视觉特征,该目标待识别图像集有多个时空点,空间特征为摄像头编号,时间特征为目标待识别图像集两两之间拍摄的时间差。S14:获取目标特征的余弦距离,并根据余弦距离确定目标特征的相似度。示例性地,相似度是指不同目标特征间的相似度,余弦距离越大,目标特征的相似度越小;余弦距离越小,目标特征的相似度越大。余弦相似度是指一个向量空间中两个向量夹角间的余弦值作为衡量两个目标特征之间差异的大小,余弦值接近1,夹角趋于0,表明两个目标特征向量越相似,余弦值本文档来自技高网...

【技术保护点】
1.一种基于时空信息的行人重识别方法,其特征在于,包括如下步骤:/n获取待识别图像集;/n根据所述待识别图像集得到目标待识别图像集;/n根据预设的卷积神经网络模型提取所述目标待识别图像集的目标特征,所述目标特征包括时间特征和空间特征;/n获取所述目标特征的余弦距离,并根据所述余弦距离确定所述目标特征的相似度;/n根据所述相似度和时空概率确定行人重识别结果。/n

【技术特征摘要】
1.一种基于时空信息的行人重识别方法,其特征在于,包括如下步骤:
获取待识别图像集;
根据所述待识别图像集得到目标待识别图像集;
根据预设的卷积神经网络模型提取所述目标待识别图像集的目标特征,所述目标特征包括时间特征和空间特征;
获取所述目标特征的余弦距离,并根据所述余弦距离确定所述目标特征的相似度;
根据所述相似度和时空概率确定行人重识别结果。


2.根据权利要求1所述的方法,其特征在于,所述根据所述待识别图像集得到目标待识别图像集,包括:
对所述待识别图像集进行行人检测,得到第一待识别图像集;
对所述第一待识别图像集进行筛选,得到所述目标识别图像集。


3.根据权利要求2所述的方法,其特征在于,通过如下步骤确定所述时空概率:
获取行人图像的时间信息和空间信息;
根据所述时间信息和空间信息得到迁移时间差;
根据所述迁移时间差得到时空概率。


4.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取训练图像集;
根据所述训练图像集对神经网络模型进行训练,得到一个卷积神经网络模型。


5.一种基于时空信息的行人重识别装置,其特征在于,包括:
第一获取模块,用于获取待识别图像集;
目标待识别图像集获取模块,用于根据所述待识别图像集得到目标待识别图像集;
提取模块,用于根据预设的卷积神经网络模型提取所述目标待识别图像集的目标特征,所述目标特征包括时间特征和空间特征;<...

【专利技术属性】
技术研发人员:邓练兵杨兴吴浩清
申请(专利权)人:珠海大横琴科技发展有限公司
类型:发明
国别省市:广东;44

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1