当前位置: 首页 > 专利查询>江苏大学专利>正文

一种基于无监督深度模型与层次属性的行人再识别方法技术

技术编号:15823169 阅读:34 留言:0更新日期:2017-07-15 05:13
本发明专利技术公开一种基于无监督深度模型与层次属性的行人再识别方法,该方法首先对行人图片进行预处理,并按人体部位分割成互相重叠的多个分块,然后,构建含有三个隐含层的卷积神经网络(CNN),并通过堆叠的卷积自动编码器(CAE)来训练模型,分别利用CUHK和VIPeR行人数据集对模型进行预训练和微调,接着,为行人设计层次属性并为每个属性设计一个分类器,将卷积神经网络中提取的行人特征输入各属性分类器得到对应属性的概率,再结合属性类别映射关系得到类别的后验概率,从而判断样本所属类别。本发明专利技术利用CAE的无监督学习方法预训练CNN模型,有效解决了缺乏带标签训练样本的问题,利用CAE能够较好地重构图像的特点,有效提高了行人再识别的准确率,通过引入层次属性使得对行人的再识别更加符合人类认知规律,让行人再识别方法富有语义表达能力的同时更加具有实际应用价值。

【技术实现步骤摘要】
一种基于无监督深度模型与层次属性的行人再识别方法
本专利技术涉及模式识别
,具体涉及一种基于无监督深度模型与层次属性的行人再识别方法。
技术介绍
随着人们对社会公共安全的日益关注以及视频采集技术和大规模数据存储技术的发展,大量的监控摄像头应用在商场、公园、学校、医院、公司、体育场馆、大型广场、地铁站等人群密集易发生公共安全事件的场所。监控摄像的出现无疑给人们带来了极大便利。监控视频可为公安部门提供诸如商场盗窃、聚众斗殴、银行卡盗窃等重大刑事案件的线索;同时也可为交通协管部门提供大量实时交通路况信息方便其对交通进行监管;对于个人和商户监控也成为其保护财产维护权益的重要手段。然而,普通的视频监控系统往往面临着一个操作人员需要负责多个摄像头的监控视频,从而造成监控工作枯燥无味,且监控效果易受人为因素,如责任心、情感因素等的影响;此外人工已难以应对海量增长的监控视频,因此利用计算机对监控视频中的行人进行再识别的需求应运而生。行人再识别涉及的主要技术包括特征提取和分类器设计。在特征提取方面,传统方法是对大量有标签的数据进行有监督的模型训练,但考虑到在监控视频中出现的行人众多,对所有行人都本文档来自技高网...
一种基于无监督深度模型与层次属性的行人再识别方法

【技术保护点】
一种基于无监督深度模型与层次属性的行人再识别方法,其特征在于包括深度模型训练、行人特征提取、层次属性学习和分类识别四个步骤,其中,所述深度模型训练包括如下步骤:1)对预训练数据库CUHK和微调数据库VIPeR中图像分别进行预处理和分块;2)将预处理和分块后的VIPeR数据集等分为8份,随机选择其中7份作为训练样本VIPeR_train,另1份作为测试样本VIPeR_test;3)构建一个深度卷积神经网络CNN模型,模型包含三个隐含层,每个隐含层都由多个卷积自动编码器CAE构成,其中,第一隐含层包括20个CAE,第二隐含层包括50个CAE,第三隐含层包括100个CAE;4)利用预处理后的CUHK...

【技术特征摘要】
1.一种基于无监督深度模型与层次属性的行人再识别方法,其特征在于包括深度模型训练、行人特征提取、层次属性学习和分类识别四个步骤,其中,所述深度模型训练包括如下步骤:1)对预训练数据库CUHK和微调数据库VIPeR中图像分别进行预处理和分块;2)将预处理和分块后的VIPeR数据集等分为8份,随机选择其中7份作为训练样本VIPeR_train,另1份作为测试样本VIPeR_test;3)构建一个深度卷积神经网络CNN模型,模型包含三个隐含层,每个隐含层都由多个卷积自动编码器CAE构成,其中,第一隐含层包括20个CAE,第二隐含层包括50个CAE,第三隐含层包括100个CAE;4)利用预处理后的CUHK和VIPeR_train对CNN进行模型训练,训练方法采用CAE的无监督重构方式,得到训练完毕的CNN模型;所述行人特征提取包括如下步骤:5)将VIPeR_train输入训练完毕的CNN模型,得到关于每张图像5个分块的共500张特征图,其中每个分块有100张特征图;6)对特征图进行转化,将每张特征图的二维矩阵按照每列相接的方式转化为一维特征向量,再将每个分块中100个特征向量相连接成为一个一维分块特征向量;所述层次属性学习包括如下步骤:7)设计行人层次属性,行人层次属性包括粗粒度属性{A1,A2,…Ak,…AN}和细粒度属性{a1,a2,…al,…aM},其中,N=17,M=16;8)对VIPeR数据集中的每一个行人图像进行属性标注;9)为每一个属性分配一个支持向量机SVM作为属性分类器,并利用分块特征向量和相应的属性标注对每一个属性分类器进行训练,得到训练完毕的属性分类器;所述分类识别包括如下步骤:10)根据属性标注,统计VIPeR_test数据集中每一个行人的属性类别映射概率,得到属性类别映射关系表,其中,属性类别映射关系表中粗粒度属性对应的概率为Ak代表粗粒度属性k,yj代表类别j,代表具有粗粒度属性Ak且属于类别yj的样本个数,代表具有粗粒度属性Ak的样本个数;属性类别映射关系表中细粒度属性对应的概率为其中al代表细粒度属性l,yj代表类别j,代表具有细粒度属性al且属于类别yj的样本个数,代表具有细粒度属性al的样本个数;11)设定层次属性的权值,粗粒度属性权值用w1表示,细粒度属性权值用w2表示;12)将VIPeR_test中样本xt输入训练完毕的CNN得到对应的分块特征图,再将每个分块中的所有特征图转化一维分块特征向量,并输入训练完毕的各属性分类器,得到样本具有粗粒度属性Ak的后验概率p(Ak|xt)和细粒度属性al的后验概率p(al|xt),结合属性类别映射关系表,通过贝叶斯公式得到在粗粒度属性下类别yj关于样本xt的后验概率p1(yj|xt)和在细粒度属性下类别yj关于样本xt的后验概率p2(yj|xt),其中,样本xt为VIPeR_test测试样本{x1,x2,...,xt,...,xp}中的第t张分块行人图像,贝叶...

【专利技术属性】
技术研发人员:许方洁张建明陶飞
申请(专利权)人:江苏大学
类型:发明
国别省市:江苏,32

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1