一种基于稳定扩散模型的人脸隐私保护方法和系统技术方案

技术编号:42369132 阅读:48 留言:0更新日期:2024-08-16 14:51
本发明专利技术属于人脸隐私保护技术领域,涉及一种基于稳定扩散模型的人脸隐私保护方法和系统。该方法在目标图像嵌入阶段使用文本逆转方法训练能够保存目标图像语义信息的文本嵌入;在对抗样本生成阶段,利用目标图像嵌入阶段得到的文本嵌入对保护图像的去噪过程进行去噪引导,将目标图像的语义信息注入保护图像中,并通过DDIM反转得到原始图像和目标图像在稳定扩散模型隐空间的编码,以在保护图像的去噪过程中提供对抗引导;通过去噪引导和对抗引导生成保护图像,实现人脸隐私保护。本发明专利技术能够解决目前人脸隐私保护领域对抗样本不自然、与原图像视觉不一致、对抗扰动易被感知等问题,并能够提高在目标黑盒模型上的迁移性攻击能力。

【技术实现步骤摘要】

本专利技术属于人脸隐私保护,具体涉及一种基于稳定扩散模型的人脸隐私保护方法和系统


技术介绍

1、随着深度学习的迅猛发展,基于深度学习的人脸识别技术在人脸验证和身份识别等领域都展现了强大的能力,各种成熟的人脸识别系统也越来越广泛地被政府、企业甚至个人所应用。然而,在享受人脸识别技术所带来的便捷的同时,用户的面部信息也面临着泄露或被用于恶意目的的风险。此外,深度神经网络已经被证明其对对抗攻击敏感,即通过在图像上添加微小的、人眼几乎不可见的对抗扰动,可能会对神经网络预测的结果产生很大的影响。例如,对于一张人脸图像而言,可以在其图像上添加对抗扰动,使得恶意的人脸识别模型无法将其识别为正确的身份,从而达到保护人脸隐私的目的。因此,使用对抗攻击技术在人脸图像上添加对抗扰动以保护人脸隐私是必要且重要的。

2、对抗攻击技术目前可以分为两大类:白盒攻击和黑盒攻击。白盒攻击假设攻击者已知模型的结构和参数,因此此类方法往往具有较高的攻击成功率。然而,现实场景中的对抗攻击往往是黑盒攻击,即模型在发布时往往不会将其开放给所有人,因此攻击者通常不知道模型的任何信息。黑盒本文档来自技高网...

【技术保护点】

1.一种基于稳定扩散模型的人脸隐私保护方法,其特征在于,包括目标图像嵌入阶段和对抗样本生成阶段;

2.根据权利要求1所述的方法,其特征在于,所述目标图像嵌入阶段包括:

3.根据权利要求1所述的方法,其特征在于,所述对抗样本生成阶段包括:

4.根据权利要求3所述的方法,其特征在于,在从到的采样过程中,在每个时间步进行一次对抗攻击,所述对抗攻击包括:

5.根据权利要求4所述的方法,其特征在于,通过引入一个正则项防止生成的保护图像与原始图像在视觉上差异过大;在每一个时间步t,用以下损失进行优化:

6.根据权利要求5所述的方法,其特征在...

【技术特征摘要】

1.一种基于稳定扩散模型的人脸隐私保护方法,其特征在于,包括目标图像嵌入阶段和对抗样本生成阶段;

2.根据权利要求1所述的方法,其特征在于,所述目标图像嵌入阶段包括:

3.根据权利要求1所述的方法,其特征在于,所述对抗样本生成阶段包括:

4.根据权利要求3所述的方法,其特征在于,在从到的采样过程中,在每个时间步进行一次对抗攻击,所述对抗攻击包括:

5.根据权利要求4所述的方法,其特征在于,通过引入一个正则项防止生成的保护图像与原始图像在视觉上差异过大;在每一个时间步t,用以下损失进行优化:

6.根据权利要求5所述的方法,其特征在于,采用的总损失函数为:

7.根据权利要求6所述的方法,其特征在于,在从n到1的每...

【专利技术属性】
技术研发人员:章万千安锦阳吴大衍林政谷井子王伟平
申请(专利权)人:中国科学院信息工程研究所
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1