一种基于深度学习的无交叠视域跨摄像机行人再识别方法技术

技术编号:20486197 阅读:18 留言:0更新日期:2019-03-02 19:30
本发明专利技术属于行人再识别技术领域,具体涉及一种基于深度学习的非交叠视域跨摄像机行人再识别方法,其首先训练行人姿态模型、背景分割模型和特征提取模型,利用模型对监控视频网络的行人图片进行行人姿态过滤、背景去除和光照归一化的预处理后,再利用特征提取模型对行人的深层特征进行自动提取,最后通过特征匹配完成行人再识别。此方法利用深度学习网络模仿人脑的机制对行人深层特征进行理解,对光照、拍摄角度、尺度、行人姿态等变化因素具有更好的鲁棒性,可有效地实现行人再识别。

【技术实现步骤摘要】
一种基于深度学习的无交叠视域跨摄像机行人再识别方法
本专利技术属于行人再识别
,具体涉及一种基于深度学习的无交叠视域跨摄像机行人再识别方法,主要用于公安派出所的办案过程视频监控。
技术介绍
随着公安办案过程管理规范化及电子化趋势的发展和办案区视频监控网络的普及,民警在办案完成后,需要从办案区不同区域(如信息采集室、讯问室、侯问室等)的监控视频中,把同一嫌疑人在办案过程中的活动轨迹视频挑选出来形成案件视频记录。这种案件视频记录的生成需要处理海量的监控视频数据,现有的人工挑选方法耗费大量人力、物力以及时间,难以满足办案过程管理的需求。为了提高公安民警办案过程的工作效率,提出针对公安办案区开发一套系统,其通过对嫌疑人活动轨迹的跟踪,实现视频的自动截取拼接。该系统包括行人检测与行人再识别算法,本文主要是针对此应用场景开发一个行人再识别算法。行人再识别技术利用一张给定的目标行人图像,通过视觉比对的方式,从非重叠视域的多个摄像机的视频图像中识别出目标行人。借助行人再识别技术,视频监控网络可实现多摄像机对特定行人的协同监控,完成不同场景下的摄像机拍摄的属于同一行人的视频片段的自动关联。现有的行人再识别技术主要通过提取行人衣着颜色、纹理等浅层特征进行相似性量度分析,完成行人再识别。此类方法缺陷较为明显,其容易受到公安派出所办案区监控摄像机的拍摄视角、尺度、环境光照、行人服饰、行人姿态、遮挡等变化因素的影响,导致行人再识别鲁棒性差,不能达到公安派出所对案宗视频自动截取生成的要求。公开号为“CN104268583A”的专利技术提出了一种基于颜色区域特征的行人再识别方法,其容易受到环境光照的影响,且当目标行人的衣着颜色与其他行人的衣着颜色相似时,该方法容易将其他行人误识别为目标行人。公开号为“CN106250870A”的专利技术专利提出了一种联合局部和全局相似性度量学习的行人再识别方法,其将3种颜色直方图特征和2种纹理直方图特征组成6种颜色纹理特征,联合局部和全局图像的6种颜色纹理特征,通过训练得到相似度度量矩阵,利用该矩阵度量待识别行人与目标行人的相似性,完成行人再识别。这种方法容易受到行人姿态和拍摄角度的影响,鲁棒性不足。
技术实现思路
本专利技术的目的是提出一种基于深度学习的无交叠视域跨摄像机行人再识别方法,以解决现有技术中选用对环境变化敏感的浅层特征对行人进行再识别,且未对行人图像进行有效的预处理,其识别效果容易受到光照、拍摄角度、尺度、行人姿态、遮挡等变化因素的影响,鲁棒性差,导致难以对行人进行准确地再识别的问题。本专利技术通过以下技术方案实现:一种基于深度学习的无交叠视域跨摄像机行人再识别方法,该方法分为模型训练阶段和行人再识别测试阶段,具体包括如下步骤:(1)首先训练行人姿态模型、背景分割模型和特征提取模型;(2)然后利用行人姿态模型对行人姿态进行过滤,获取包含有正面或背面的行人图像,利用背景分割模型对背景进行去除;(3)利用特征提取模型对行人的深层特征进行自动提取;(4)最后通过特征匹配完成行人再识别。进一步地,所述的步骤(1)具体为,利用大量从非交叠视域的多场景视频中获取的行人图片样本集训练卷积神经网络,得到行人姿态模型、背景分割模型以及特征提取模型。进一步地,所述的步骤(4)具体为,通过深层特征向量之间的余弦距离评价待识别行人图像与目标行人图像的相似度,实现特征匹配,设定相似度阀值以判断待识别行人是否是目标行人,从而完成行人再识别。其中,模型训练阶段进一步包括步骤:S1:从公安派出所办案区各个场景的监控视频中,收集各类场景各种角度下各姿态的行人图像,将其划分为训练集样本和测试样本;S2:对S1收集的训练集样本的样本图像素点按照前景/背景的不同进行标准化命名和标注,得到每张行人样本图中各像素点的前景/背景类别,行程第一训练集样本;S3:利用S2处理完成的第一训练集样本离线训练全卷积网络,得到背景分割模型;S4:对S1收集的训练样本集根据行人姿态的类型进行标注和标准化命名,得到行人样本的所属姿态类别,形成第二训练集样本;S5:利用S4处理完成的第二训练集样本离线训练AlexNet网络,得到行人姿态模型;S6:从公安派出所办案区各个场景的监控视频中,收集各行人的多场景行人图像集合,利用S3得到的背景分割模型对其进行去背景处理和光照补偿处理后,将其作为第三训练集样本;S7:利用S6处理完成的第三训练集样本离线训练卷积神经网络,得到特征提取模型。优选的,所述的场景包括信息采集室、侯问室、讯问室以及进出通道。其中,行人再识别测试阶段进一步包括步骤:S8:从公安办案区监控视频录像中选取标准测试视频,选定目标行人图;S9:输入S8选取的标准测试视频和目标行人图;S10:对测试视频进行行人检测并进行跟踪;S11:利用S5得到的行人姿态模型对S10得到的待识别行人图序列进行姿态处理,将经过姿态处理后的行人图导入待识别行人图库;S12:利用对S3得到的背景分离模型对S11得到待识别行人图和S9输入的目标行人图进行去背景预处理;S13:利用图像增强算法对S12得到的待识别行人图进行光照归一化处理。进一步包括步骤:S14:利用S7得到的特征提取模型分别对目标行人图和S13预处理后的待识别行人图和目标行人图进行行人深层的特征提取。进一步包括步骤:S15:对S14得到的两个512维特征向量进行特征匹配,用余弦距离量度两者相似度,输出待识别行人与目标行人之间的相似度。进一步包括步骤:S16:设置相似度阀值,若S15得到的相似度大于阀值,则待识别行人被再识别为目标行人,否则待识别行人被再识别为非目标行人,将S11得到的待识别行人图库分为目标行人图库和非目标行人图库。本专利技术还包括一种非易失性存储介质,其包括一条或多条计算机指令,所述一条或多条计算机指令在执行时实现上述基于深度学习的无交叠视域跨摄像机行人再识别方法。与现有技术相比,本专利技术至少具有下述的有益效果或优点:本专利技术提供的这种基于深度学习的无交叠视域跨摄像机行人再识别方法,利用深度学习训练得到的行人姿态过滤模型、行人背景分割模型以及深度特征提取模型对监控视频网络中的行人图片进行预处理和再识别,以确定其是否是目标行人,进而满足案件视频片段自动截取拼接的需求。此方法利用深度学习网络模仿人脑的机制对行人深层特征进行理解,对光照、拍摄角度、尺度、行人姿态等变化因素具有更好的鲁棒性,可有效地实现行人再识别。附图说明以下将结合附图对本专利技术做进一步详细说明;图1是本专利技术的行人再识别方法的整体流程图;图2是本专利技术的背景分离模型训练与测试过程流程图;图3是本专利技术的行人姿态模型训练与测试过程流程图;图4是本专利技术的特征提取模型训练与测试过程流程图。具体实施方式下面将结合本专利技术实施例中的附图,对本专利技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本专利技术一部分实施例,而不是全部的实施例。基于本专利技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本专利技术保护的范围。针对现有行人再识别技术难以完成非交叠视域跨摄像机的行人再识别问题,本专利技术提出了一种基于深度学习的非交叠视域跨摄像机行人再识别方法,其基于深度学习思想,设计卷积神经网络(ConvolutionalNeur本文档来自技高网
...

【技术保护点】
1.一种基于深度学习的无交叠视域跨摄像机行人再识别方法,其特征在于,该方法分为模型训练阶段和行人再识别测试阶段,具体包括如下步骤:(1)首先训练行人姿态模型、背景分割模型和特征提取模型;(2)然后利用行人姿态模型对行人姿态进行过滤,获取包含有正面或背面的行人图像,利用背景分割模型对背景进行去除;(3)利用特征提取模型对行人的深层特征进行自动提取;(4)最后通过特征匹配完成行人再识别。

【技术特征摘要】
1.一种基于深度学习的无交叠视域跨摄像机行人再识别方法,其特征在于,该方法分为模型训练阶段和行人再识别测试阶段,具体包括如下步骤:(1)首先训练行人姿态模型、背景分割模型和特征提取模型;(2)然后利用行人姿态模型对行人姿态进行过滤,获取包含有正面或背面的行人图像,利用背景分割模型对背景进行去除;(3)利用特征提取模型对行人的深层特征进行自动提取;(4)最后通过特征匹配完成行人再识别。2.根据权利要求1所述的基于深度学习的无交叠视域跨摄像机行人再识别方法,其特征在于,所述的步骤(1)具体为,,利用大量从非交叠视域的多场景视频中获取的行人图片样本集训练卷积神经网络,得到行人姿态模型、背景分割模型以及特征提取模型。3.根据权利要求1所述的基于深度学习的无交叠视域跨摄像机行人再识别方法,其特征在于,所述的步骤(4)具体为,通过深层特征向量之间的余弦距离评价待识别行人图像与目标行人图像的相似度,实现特征匹配,设定相似度阀值以判断待识别行人是否是目标行人,从而完成行人再识别。4.根据权利要求1所述的基于深度学习的无交叠视域跨摄像机行人再识别方法,其特征在于,模型训练阶段进一步包括步骤:S1:从公安派出所办案区各个场景的监控视频中,收集各类场景各种角度下各姿态的行人图像,将其划分为训练集样本和测试集样本;S2:对S1收集的训练集样本按照前景/背景的不同进行标注,得到每张行人样本图中各像素点的前景/背景类别,形成第一训练集样本;S3:利用S2处理完成的第一训练集样本离线训练全卷积网络,得到背景分割模型;S4:对S1收集的训练样本集根据行人姿态的类型进行标注和标准化命名,得到行人样本的所属姿态类别,形成第二训练集样本;S5:利用S4处理完成的第二训练集样本离线训练AlexNet网络,得到行人姿态模型;S6:从公安派出所办案区各个场景的监控视频中,收集各行人的多场景行人图像集合,利用S3得到的背景分割模型对检测到的行人图像进行去背景处理和光照补偿处理后...

【专利技术属性】
技术研发人员:毛亮朱婷婷林焕凯黄仝宇汪刚宋一兵侯玉清刘双广
申请(专利权)人:高新兴科技集团股份有限公司
类型:发明
国别省市:广东,44

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1