图像分类领域联邦学习场景下的成员推理攻击方法技术

技术编号:40036138 阅读:32 留言:0更新日期:2024-01-16 19:00
一种图像分类领域中联邦学习场景下的成员推理攻击方法,包括:(1)制作所需的有毒数据并混入目标的数据集之中;(2)在当攻击者作为中心聚合服务器或者攻击者作为本地训练客户端的两种情况下,凭借自身手段获得用于生成推断数据的模型参数;(3)利用影子数据集训练影子模型;(4)用影子模型产生的数据训练攻击用二分类器;(5)用该攻击用二分类器对目标模型实施成员推理攻击。本发明专利技术使用投毒攻击对目标模型产生影响,后在不同的训练轮次中对总体或者目标模型的模型参数进行提取,利用影子数据训练影子模型来模拟目标模型训练过程中的参数生成,利用影子模型产生的数据来训练用于攻击的二分类器,用该分类器来成功实施攻击。

【技术实现步骤摘要】

本专利技术属于图像相关领域的攻击技术,具体涉及到了图像分类领域中联邦学习场景下针对于模型隐私的推理攻击,更具体来说就是一种图像分类领域中联邦学习场景下的成员推理攻击方法。


技术介绍

1、数字经济时代,大量的数据得以让模型被训练的更加完善,但是这些用于训练的数据许多都涉及到个人隐私,如果使用以往的集成学习的方式无疑会对个人数据的隐私安全造成了极大的威胁,所以使用联邦学习框架进行模型的训练已然成为了热门选择。

2、联邦学习是一种分布式的训练方式,个人数据分布在每个人的设备之中而无需上传到服务器,通过在本地客户端进行训练,然后将训练出来的模型梯度数据上传到中心服务器,服务器对梯度进行聚合与更新之后再将更新的模型下发到各个客户端去,以此往复来实现联合模型的训练。但是即使采用了联邦学习的训练方式,用户的隐私仍然有泄露的可能性,目前主要的安全与隐私威胁主要分为四类,投毒攻击、对抗样本攻击、模型提取攻击和模型逆向攻击。

3、本专利技术主要研究的针对于联邦学习框架下的成员推理攻击,属于模型逆向攻击中的一种,其诞生于机器学习即服务场景,是一种针对模型本文档来自技高网...

【技术保护点】

1.一种图像分类领域中联邦学习场景下的成员推理攻击方法,其特征在于:通过使用投毒攻击以及序列置信度数据的方法来在联邦学习的场景之下实施攻击;首先通过在网上散播不安全的带毒图像来诱导目标客户端下载致使目标客户端的本地数据受到污染,其次在联邦学习的过程之中利用提取目标模型的参数并生成序列置信度用于推断的方法来成功实施攻击,包括了以下步骤:

2.如权利要求1所述的在图像分类领域中联邦学习场景下的成员推理攻击方法,其特征在于:更具体的步骤为:

【技术特征摘要】

1.一种图像分类领域中联邦学习场景下的成员推理攻击方法,其特征在于:通过使用投毒攻击以及序列置信度数据的方法来在联邦学习的场景之下实施攻击;首先通过在网上散播不安全的带毒图像来诱导目标客户端下载致使目标客户端的本地数据受到污染...

【专利技术属性】
技术研发人员:徐洋何昕龙张思聪谢晓尧
申请(专利权)人:贵州师范大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1