一种基于面向场景判别性分析的图像到视频人脸识别方法技术

技术编号:9719049 阅读:184 留言:0更新日期:2014-02-27 05:55
本发明专利技术的实施方式提供了一种基于面向场景判别性分析的图像到视频人脸识别方法,其包括步骤:1)检测输入静止图像及人脸视频中的人脸区域,并将所述人脸区域归一化到相同大小;2)提取所述归一化处理后的人脸区域的特征,并进行降维;3)对所提取的静止场景人脸和视频场景人脸建立不同的映射矩阵,计算原始特征在映射空间中的特征表示;4)根据身份耦合的图像视频人脸训练数据,通过约束映射空间中人脸特征的类内紧致性和类间分离性,优化静止场景和视频场景的映射矩阵参数;5)将测试的人脸视频和数据库中的人脸图片分别输入对应的映射矩阵计算新特征,采用最近邻算法识别视频人脸身份。本发明专利技术对不同的场景建立不同的映射矩阵,有效地建模不同场景的数据特征,并利用线性判别分析学习优化面向场景的映射矩阵,使得变换后的特征具有良好的区分性。

【技术实现步骤摘要】
一种基于面向场景判别性分析的图像到视频人脸识别方法
本专利技术属于视频人脸识别
,具体涉及一种基于面向场景判别性分析的图像到视频人脸识别方法。
技术介绍
随着摄像头等信息采集设备的普及,视频数据资源逐渐在日常生活中得到广泛的应用。其中一个重要的应用包括各种场景中的面部照片匹配,如识别驾照,护照,身份证中的人脸图像。因此,基于视频数据的人脸识别研究称为了一个紧急而重要的任务。这里,我们主要关注现实世界中的图像到视频的人脸识别应用。在这种场景中,数据库中的每个人只注册单张或者少量的高质量静止图片,而查询图片是多个视频片段。这些视频通常是从不同环境中获取的,受光照、姿态、运动模糊等因素干扰,视频帧的质量较低且比较模糊。由于不同场景中的数据通常表现出非常不同的特征,而且这些场景变化带来的图片差异可能使得同一个人的不同场景人脸图片位于不同的子空间。这些因素导致图片到视频的人脸识别问题存在很大的挑战。目前大多数研究主要致力于图片到图片或视频到视频的人脸识别问题。CN101668176A的中国专利提供了一种雾天图像中人脸的识别方法和识别装置,CN102955933A提供了一种基于人脸识别的家本文档来自技高网...
一种基于面向场景判别性分析的图像到视频人脸识别方法

【技术保护点】
一种基于面向场景判别性分析的图像到视频人脸识别方法,其特征在于,包括以下具体步骤:??A)首先,检测输入静止人脸图片和人脸视频中的人脸位置,提取人脸区域图像,将人脸区域归一化为大小为????????????????????????????????????????????????的矩形图像区域,H表示矩形图像区域的高度,W表示矩形图像区域的宽度;??B)在归一化的人脸区域图像上提取特征,并用主成分分析方法对特征降维;C)对静止场景和视频场景分别假设不同的映射矩阵,将原始的静止图片人脸特征和视频人脸特征分别输入到对应的变换矩阵后,获得在映射空间中的特征表述;??D)训练集中的每个人都提供一张静止人...

【技术特征摘要】
1.一种基于面向场景判别性分析的图像到视频人脸识别方法,其特征在于,包括以下具体步骤:A)首先,检测输入静止人脸图片和人脸视频中的人脸位置,提取人脸区域图像,将人脸区域归一化为大小为H×W的矩形图像区域,H表示矩形图像区域的高度,W表示矩形图像区域的宽度;B)在归一化的人脸区域图像上提取特征,并用主成分分析方法对特征降维;C)对静止场景和视频场景分别假设不同的映射矩阵,将原始的静止图片人脸特征和视频人脸特征分别输入到对应的变换矩阵后,获得在映射空间中的特征表述;D)训练集中的每个人都提供一张静止人脸图片和多个环境变化的人脸视频片段;通过约束映射空间中同一人在静止场景和视频场景中的人脸特征距离小,而不同人的人脸特征距离大,构造面向场景的判别分析优化目标;利用梯度下降法求解目标函数,得到最优的映射矩阵参数,使得不同场景人脸特征在映射空间中达到良好的区分性能;E)将测试视频人脸图片输入视频场景映射矩阵,数据库中所有的静止图片人脸输入静止场景映射矩阵,分别得到转换后的新特征;计算测试人脸视频到数据库中所有静止人脸图片的距离,选择与测试视频距离最小的图片人脸作为测试视频的身份。2.权利要求1所述的图像到视频人脸识别方法,其特征在于,所述步骤B)中,图像上提取的特征类型是纹理特征、幅值特征、相位特征LPQ或上述特征的组合;基于原始图像提取的特征维数比较高,而且含有很多的冗余信息和干扰信息,因此采用主成分分析方法获得降维矩阵,原始特征通过降维矩阵后获得低维特征。3.根据权利要求2所述的图像到视频人脸识别方法,其特征在于:纹理特征为LBP或HLBP,幅值特征为Gabor幅值,相位特征为LPQ。4.根据权利要求1-3中任一项所述的图像到视频人脸识别方法,其特征在于,所述步骤C)中,对静止场景和视频场景分别对应不同的映射矩阵{FS;FV},用它们来分别建模两种场景的数据特征;原始特征x输入映射矩阵F后,在映射空间中的特征表示为F*x。5.根据权利要求1-3中任一项所述的图像到视频人脸识别方法,其特征在于,所述步骤D)中,训练集包括高质量的静止人脸图片集S和低质量的人脸视频集V;包含NS个人的静止人脸集表示为其中表示第i个人的静止图片,Rds表示ds维度的空间;对应地,视频人脸集包括静止人脸集中每个人i的视频片段其中表示视频片段Vi中的第k个图像帧,Rdv表示dv维度的空间;假设静止场景映射矩阵为视频场景映射矩阵为其中θS,θV分别为映射矩阵参数。6.根据权利要求5所述的图像到视频人脸识别方法,其特征在于:形成静止场景和视频场景中映射矩阵参数的具体步骤为:1)分别构建映射空间中人脸特征的类内紧致性约束Jw和类间分离性约束Jb;类内紧致性计算同一人的视频场景图片帧和静止场景图片si的距离;类间分离性计算不同人的视频场视频片段的平均值和静止场景图片si的距离;计算表达式为:

【专利技术属性】
技术研发人员:不公告发明人
申请(专利权)人:康江科技北京有限责任公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1