The invention discloses a method of face recognition in unconstrained scene depth transform based learning, which comprises the following steps: acquiring the image of the face detection and facial key points; the face image transform using face alignment, in the aligning process, key points between minimizing detected with predefined key points on the face pose distance; estimation and attitude estimation results of multiple sample classification; face pose is separated into different classes; attitude transform, non frontal face feature transform for positive facial features and calculate the attitude transformation loss; learning method to update the network parameters to meet demands from the use of depth threshold transform. The present invention features transform in neural network, the characteristics of different attitude to transform linear feature space sharing, by calculating the loss of learning attitude and attitude, the attitude transformation center, simple changes, can strengthen the feature transform learning, improve the robustness and discriminability of deep function.
【技术实现步骤摘要】
无约束场景中基于深度变换学习的人脸识别方法
本专利技术涉及图像处理
,具体涉及一种无约束场景中基于深度变换学习的人脸识别方法。
技术介绍
由于非侵入性的优态,人脸识别已经深入研究了数十年,并在很多方面得到应用,现在已经提出了许多方法来解决人脸识别问题。然而,人的姿态变化无法控制,在无约束的场景中,往往很难获取正面脸部图像,这是面部识别率低或脸部图像不能准确识别的主要原因之一。在受限场景中,例如机场办理登机手续从ATM柜台取款(自动柜员机),容易获得正面脸部图像。事实上,从无约束场景中检测到的脸部图像有很多与受限场景的差异,详细的差异包括:1.头部的自我遮挡。2.非线性的姿态和形状变化。3.不同类型干扰的混合变化。目前有很多方法来解决姿态变化的人脸识别问题,大多数这些方法可以分为三大类:多视角子空间学习,面部综合,姿态鲁棒特征提取。最近,典型特征提取方法是卷积神经网络(CNN),它显示出快速而显着的进步。但是,基于CNN的识别方法很少考虑姿态变化的影响,这将会实际应用中的一个障碍。人脸识别的基本框架如图1所示,本专利技术可以看到,从输入图像中提取特征并输入到识 ...
【技术保护点】
一种无约束场景中基于深度变换学习的人脸识别方法,其特征在于,包括如下步骤:S1,获取脸部图像并检测脸部关键点;S2,使用脸部对齐对脸部图像进行变换,在对齐过程中,最小化检测到的关键点与预定义关键点之间的距离;S3,对脸部姿态进行估计并对姿态估计结果进行分类;S4,将样本分类成不同的类别;进行姿态变换,将非正面面部特征变换为正面面部特征并计算姿态变换损失;S5,利用深度变换学习方法更新网络参数直到满足阈值要求退出。
【技术特征摘要】
1.一种无约束场景中基于深度变换学习的人脸识别方法,其特征在于,包括如下步骤:S1,获取脸部图像并检测脸部关键点;S2,使用脸部对齐对脸部图像进行变换,在对齐过程中,最小化检测到的关键点与预定义关键点之间的距离;S3,对脸部姿态进行估计并对姿态估计结果进行分类;S4,将样本分类成不同的类别;进行姿态变换,将非正面面部特征变换为正面面部特征并计算姿态变换损失;S5,利用深度变换学习方法更新网络参数直到满足阈值要求退出。2.根据权利要求1所述的无约束场景中基于深度变换学习的人脸识别方法,其特征在于,所述步骤S2中,对齐图像的方法为:其中,D是检测到的人脸关键点,R是预先设定的真正的关键点,T是变换矩阵,θ是旋转角度,S是缩放因子,是平移变换值,T代表旋转变换、缩放变换和平移变换三种变换综合而成,T的具体获得方式为:利用检测得到的人脸关键点与预先设定的关键点模型做相似变换,通过寻找最佳的变换矩阵,使得检测得到的人脸关键点通过旋转,缩放,平移后与预定义的人脸关键点在坐标上的差异尽可能小。3.根据权利要求1所述的无约束场景中基于深度变换学习的人脸识别方法,其特征在于,所述步骤S3中,对脸部姿态进行分类的方法为:将偏航角θi以平均法分类为Np类,Np表示姿态类别的数目,即预定义的超参数,Sp=90/(Np-1)是相邻角度类别之间的角度距离,j是姿态的类型,θi是待估计的偏航角,P(θi)是姿态分类结果,范围是从1到Np。4.根据权利要求1所述的无约束场景中基于深度变换学习的人脸识别方法,其特征在于,所述步骤S4中,将样本分类成不同的类别的方法为:使用损失函数区分不同的类:表示第i个样本的归一化的深度特征表示,相应的偏航角为θi,第i个样本的类别标签是yi,Wj表示最后一个全连接层的第j列的权重,b是对应的偏置项。5.根据权利要求1所述的无约束场景中基于深度变换学习的人脸识别方法,其特征在于,所述步骤S4中姿态变换方法为;假设样本i,j来自同一个类,即为...
【专利技术属性】
技术研发人员:唐晖,
申请(专利权)人:南京东方网信网络科技有限公司,
类型:发明
国别省市:江苏,32
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。