一种人脸识别模型攻击防御方法、装置、设备及存储介质制造方法及图纸

技术编号:33083679 阅读:45 留言:0更新日期:2022-04-15 10:42
本申请公开了一种人脸识别模型攻击防御方法、装置、设备及存储介质,包括:获取包含人脸的原始样本和与所述原始样本对应的所述对抗样本;确定所述原始样本中的扰动敏感区域,并对所述原始样本及所述对抗样本的所述扰动敏感区域进行遮挡处理;所述扰动敏感区域为添加扰动后对识别结果影响较大的区域;将遮挡处理后的所述原始样本和所述对抗样本输入至人脸识别模型进行模型训练,以利用训练后的所述人脸识别模型进行攻击防御。本申请利用对扰动敏感区域进行遮挡后的真假训练样本训练人脸识别模型,训练后模型在识别过程中最大程度上规避最明显的面部特征以更注重其他区域的特征,达到减小模型识别误差、提高模型识别精度及保证识别安全性的效果。及保证识别安全性的效果。及保证识别安全性的效果。

【技术实现步骤摘要】
一种人脸识别模型攻击防御方法、装置、设备及存储介质


[0001]本专利技术涉及人工智能
,特别涉及一种人脸识别模型攻击防御方法、装置、设备及存储介质。

技术介绍

[0002]机器学习的广泛应用使得机器学习模型易受攻击的程度变得越来越重要,尤其是广泛用于监控、安防、访问控制、金融验证等的人脸识别系统,其安全容易受到威胁。
[0003]作为最重要的计算机视觉任务之一,人脸识别技术基于深度神经网络(CNN)提取人脸特征来实现。深度神经网络在图像分类领域尽管有很高的正确率,但是非常容易受到对抗样本的攻击。例如,在逃逸识别中将危险分子误识别成其他任意一张人脸,绕过人脸识别系统的安全检查。或者将人误判成特定的另一个人,以被系统识别成特定的授权用户,从而被人脸识别系统成功身份验证。此外,同样的图片扰动可以欺骗很多不同的网络分类器。这类算法称为深度学习安全性领域的对抗攻击。这些对抗样本仅有很轻微的扰动,图片看起来肉眼几乎无法区分差别,就可以导致神经网络完全改变它对图片的分类,最终导致人脸识别的结果异常。
[0004]因此,如何有效提高人脸本文档来自技高网...

【技术保护点】

【技术特征摘要】
1.一种人脸识别模型攻击防御方法,其特征在于,包括:获取包含人脸的原始样本和与所述原始样本对应的所述对抗样本;确定所述原始样本中的扰动敏感区域,并对所述原始样本及所述对抗样本的所述扰动敏感区域进行遮挡处理;其中,所述扰动敏感区域为添加扰动后对识别结果影响较大的区域;将遮挡处理后的所述原始样本和所述对抗样本输入至人脸识别模型进行模型训练,以利用训练后的所述人脸识别模型进行攻击防御。2.根据权利要求1所述的人脸识别模型攻击防御方法,其特征在于,所述获取包含人脸的原始样本和与所述原始样本对应的所述对抗样本,包括:获取包含人脸的所述原始样本,并利用快速梯度符号攻击算法生成与所述原始样本对应的所述对抗样本。3.根据权利要求2所述的人脸识别模型攻击防御方法,其特征在于,所述利用快速梯度符号攻击算法生成与所述原始样本对应的所述对抗样本,包括:对所述原始图像中的人脸局部目标进行提取,并利用所述快速梯度符号攻击算法对提取到的所述人脸局部目标添加干扰噪声生成与所述原始样本对应的所述对抗样本。4.根据权利要求1至3任一项所述的人脸识别模型攻击防御方法,其特征在于,所述确定所述原始样本中的扰动敏感区域,包括:利用卷积神经网络对所述原始样本进行处理得到与所述原始样本对应的热度图,以基于所述热度图确定出所述原始样本中的所述扰动敏感区域。5.根据权利要求4所述的人脸识别模型攻击防御方法,其特征在于,所述利用卷积神经网络对所述原始样本进行处理得到与所述原始样本对应的热度图,包括:将所述原始样本输入至所述卷积神经网络得到对应的特征图;对所述特征图进行上采样后与所述原始图像对应矩阵进行点积运算得到第一分数响应,并将所述第一分数响应与所述卷积神经网络对所述原始样本的第二分数响应的响应差值确定为所述特征图的分类权重;将所述特征图的...

【专利技术属性】
技术研发人员:葛沅赵雅倩史宏志温东超徐哲
申请(专利权)人:浪潮北京电子信息产业有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1