一种基于多视角动态特征的人脸活体检测方法技术

技术编号:18764506 阅读:26 留言:0更新日期:2018-08-25 10:49
一种基于多视角动态特征的人脸活体检测方法,利用运动模糊图像的成像原理提取视频的运动模式映射图,并将运动模式和噪声模式相结合,用于人脸活体检测,保证用户的隐私和财产安全,抵御恶意攻击,增强人脸认证系统的安全性。包含四个主要部分,分别是:a)视频预处理,b)人脸运动模式映射,c)噪声模式提取,d)分类。当有用户请求接入人脸认证系统时,由系统摄像头获得人脸的视频,对其进行预处理,并分别提取其人脸运动模式映射图和噪声模式,其中人脸运动模式映射图将整个视频中的运动信息映射到单张图像上。然后计算灰度共生矩阵,送入支持向量机分类器进行分类,最后输出结果为活体或者假体。

【技术实现步骤摘要】
一种基于多视角动态特征的人脸活体检测方法
本专利技术属于生物特征识别领域,涉及生物特征的活体检测技术,具体涉及一种利用包括运动模式和噪声模式的多视角动态特征进行人脸活体检测的方法。
技术介绍
在生物特征识别领域,人脸特征以其免接触、自然的识别方式等特点,广泛的应用于身份认证、安全监测和监控、网络安全控制等领域。而人脸也和更多的个人隐私,财产安全紧密联系在一起。因此,人脸认证系统吸引了更多攻击者的注意,他们试图利用人脸的假体攻击侵入系统,图1给出了几张典型的假体攻击方式,包括照片攻击(a),视频攻击(b),和3D模型攻击(c)。这给基于人脸的身份认证系统带来了较大的安全和隐私隐患。因此,研究具有具有高性能和普遍使用的人脸活体检测具有重要的应用意义。人脸活体检测技术主要判断人脸是活体还是非活体。只有在人脸被判别为活体的情况下,人脸身份认证的结果才是有效的,否则,就将其视为非法攻击。在目前实际应用中活体人脸检测技术的性能还有待提高,我们认为在线身份认证中理想的抗欺骗技术应具备以下几个特点:(1)受光照、拍摄设备的影响小;(2)速度快,能实现实时在线处理;(3)用户界面比较自然且与用户的交互尽量少;(4)对活体具有较好的检测能力;(5)对照片、视频等各种攻击手段具有较强的检测能力。目前的人脸活体检测方法可以分为两类:需要额外信息的,和无需额外信息的。前者利用摄像头抓拍的视频/图像以及其他传感器获得信息如深度信息等,或者基于用户交互的信息,进行活体检测。该类方法性能较好,但需要额外设备,用户体验不友好,费用高,使用场合受限制。而后者仅仅利用摄像头抓拍的视频和图像进行检测,费用低,用户体验良好,适用场合广泛。无需额外设备的人脸活体检测算法可进一步分为基于静态信息和基于动态信息。基于静态特征的方法探索颜色、纹理或其他信息用于活体检测,然而只能考虑单帧内的特性。为了解决这个问题,A.Pinto在文章“Usingvisualrhythmsfordetectingvideo-basedfacialspoofattacks”中认为如果视频为二次成像,则噪声模式不同于一次成像的情况,并通过分析残差噪声视频的视觉节奏进行活体检测,缺点是受成像设备和显示设备的影响较大。基于动态特征的方法利用面部的运动信息进行活体检测。2007年PanG.等人在文章“Eyeblink-basedanti-Spoofinginfacerecognitionfromagenericwebcamera”中通过眨眼检测照片攻击,取得了较好的性能,但该方法不能用来检测视频攻击。2017年,N.N.Lakshminarayana等人在文章“Adiscriminativespatio-temporalmappingoffaceforlivenessdetection”中将呼吸作为活体检测的主要依据,认为呼吸导致面部血液流动并引发颜色的轻微变化,而假体视频中没有这种变化。然而,实际应用中受光照和噪声的影响,皮肤颜色的轻微变化很难提取,且当请求者化妆时该方法不能正常工作。综上所述,现有人脸活体检测方法无法较好地兼顾检测性能和适用性,制约了算法的实际应用。针对现有人脸活体检测的问题,提出利用运动模糊图像的成像原理提取视频的运动模式映射图,并将运动模式和噪声模式相结合,用于人脸活体检测,保证用户的隐私和财产安全,抵御恶意攻击,增强人脸认证系统的安全性。
技术实现思路
本专利技术的目的是提供一种性能高,适用范围广的人脸活体检测方法。本专利技术采用的人脸活体检测方法如图2所示。算法包含四个主要部分,分别是:a)视频预处理,b)人脸运动模式映射,c)噪声模式提取,d)分类。当有用户请求接入人脸认证系统时,由系统摄像头获得人脸的视频,对其进行预处理,并分别提取其人脸运动模式映射图和噪声模式,然后计算灰度共生矩阵(Gray-levelCo-occurrenceMatrix,GLCM),送入支持向量机(SupportVectorMachines,SVM)分类器进行分类,最后输出结果为活体或者假体。系统具体采用如下的技术方案和步骤:1.视频预处理为了避免视频中背景的影响,本专利技术在预处理中对视频进行裁剪。对于一个人脸视频,检测视频第一帧中人脸的位置,并使用该位置信息对视频所有帧进行裁剪。经过视频预处理,我们得到不含背景的人脸视频,如图2(a)所示。2.人脸运动模式映射受运动模糊图像的启发,本专利技术提出人脸运动模式映射图的概念,将整个视频中人脸的运动模式映射到单张图像上。具体方法为,将视频中的内容看做被拍摄的运动着的物体,将视频的持续时间看做运动模糊图像的曝光时间,则视频的运行模式映射由下式得到:其中V为预处理之后的视频,Vp,q(t)为该视频在t时刻(p,q)位置的取值,p和q分别为视频中每一像素的横坐标和纵坐标。对于RGB三通道彩色视频,本专利技术选择G(绿色)通道进行分析,因为G通道最能反映肤色变化。avg[Vp,q(t)]表示Vp,q在时域上的均值。T为视频的持续时间,ψ为运动模式映射图,ψ(p,q)为运动模式映射图在点(p,q)位置的值。对于数字视频,信号以帧的速率被采样,因此运动模式映射图ψ表示为:其中,Vp,q(k)表示视频第k帧中点(p,q)位置的值,l表示视频的总帧数。通过上式可计算出视频的运动模式映射图。图3列出了几种不同情况下的运动模式映射图,图中的每一行代表一种情况下的运动模式映射,从上到下依次为真实人脸、固定的照片攻击、具有大幅晃动的攻击、手持照片的攻击和固定的视频攻击。可以看到,真实人脸的运动模式包含全局的和局部运动信息。固定照片的攻击的运动模式映射图非常平坦,即几乎没有运动。第三行中,视频中人脸快速移动,局部运动信息被强烈的全局运动所干扰,不利于活体检测的分类。第四行中,手持照片攻击只包含全局运动而没有局部运动。最后一行为固定视频的攻击,其运动模式映射非常类似于真实人脸。为了弥补这一点,进一步引入另一种噪声模式特性。3.噪声模式提取视频中的噪声是在成像过程中被引入的,攻击视频包含了二次成像,因此其噪声不同于一次成像的真实人脸视频。本节介绍如何提取和表达视频的噪声模式用于活体检测,具体步骤如下:1)首先提取视频中的噪声。假设V是输入视频,则残差噪声视频可以表示为VNR=Vgray-VFiltered其中Vgray是灰度化处理的视频,VFiltered是Vgray经过低通滤波后的视频。本专利技术采用高斯滤波器,其均值μ=0,标准差σ=2,滤波器尺寸为7×7。结果如图2(c)中第一个小图所示。2)对残差噪声视频进行2D离散傅里叶变换(discreteFouriertransform,DFT),如下式所示其中FS为傅里叶频谱,(u,w)为傅里叶频谱的横坐标和纵坐标,M和N分别代表视频的高和宽,x和y为人脸视频中的横坐标和纵坐标。结果如图2(c)中第二个小图所示。3)求频谱视频的视觉节奏。视觉节奏选取选取视频每一帧的带状部分,组成一张图像。其中,带状部分的选取非常重要,通常选择过中心的水平或者垂直带状部分,如图4所示。实线框表示垂直带状部分,虚线框表示水平带状部分。4.分类这部分利用上面提到的两类特征进行分类。由于真假两类的区别主要体现在纹理信息上,因此提取运动模式图像和噪声视本文档来自技高网
...

【技术保护点】
1.一种基于多视角动态特征的人脸活体检测方法,其特征在于:包含四个部分,分别是:a)视频预处理,b)人脸运动模式映射,c)噪声模式提取,d)分类;当有用户请求接入人脸认证系统时,由系统摄像头获得人脸的视频,对其进行预处理,并分别提取其人脸运动模式映射图和噪声模式,然后计算灰度共生矩阵,送入支持向量机分类器进行分类,最后输出结果为活体或者假体。

【技术特征摘要】
1.一种基于多视角动态特征的人脸活体检测方法,其特征在于:包含四个部分,分别是:a)视频预处理,b)人脸运动模式映射,c)噪声模式提取,d)分类;当有用户请求接入人脸认证系统时,由系统摄像头获得人脸的视频,对其进行预处理,并分别提取其人脸运动模式映射图和噪声模式,然后计算灰度共生矩阵,送入支持向量机分类器进行分类,最后输出结果为活体或者假体。2.根据权利要求1所述的方法,其特征在于:在视频预处理中对视频进行裁剪;对于一个人脸视频,检测视频第一帧中人脸的位置,并使用该位置信息对视频所有帧进行裁剪;经过视频预处理,得到不含背景的人脸视频。3.根据权利要求1所述的方法,其特征在于:将视频中的内容看做被拍摄的运动着的物体,将视频的持续时间看做运动模糊图像的曝光时间,则视频的运行模式映射由下式得到:其中V为预处理之后的视频,Vp,q(t)为该视频在t时刻(p,q)位置的取值,p和q分别为视频中每一像素的横坐标和纵坐标;avg[Vp,q(t)]表示Vp,q在时域上的均值;T为视频的持续时间,ψ为运动模式映射图,ψ(p,q)为运动模式映射图在点(p,q)位置的值;对于数字视频,信号以帧的速率被采样,因此运动模式映射图ψ表示为:其中,Vp,q(k)表示视频第k帧中点(p,q)位置的值,l表示视频的总帧数...

【专利技术属性】
技术研发人员:毋立芳马玉琨简萌徐姚文
申请(专利权)人:北京工业大学
类型:发明
国别省市:北京,11

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1