一种自适应的隐私保护联邦学习方法技术

技术编号:38812499 阅读:12 留言:0更新日期:2023-09-15 19:51
本发明专利技术公开了一种自适应的隐私保护联邦学习方法,该方法针对联邦学习易遭受梯度攻击的特点,在隐私保护下完成联邦学习模型训练,并且为不同的通信轮次提供自适应的隐私保护强度,保证生成模型高可用的同时抵御梯度攻击,保护客户端训练数据安全。本发明专利技术揭示了梯度攻击具有通信轮次异构特点,从而提出泄露风险感知的隐私分解方案。本发明专利技术量化当前通信轮次共享参数的隐私泄露风险并自适应分配隐私预算,从而平衡不同通信轮次的数据隐私性与模型可用性。在客户端训练阶段,本发明专利技术提出自适应的差分隐私随机梯度下降法,动态衰减噪声和裁剪系数,有效缓解差分隐私机制对模型训练造成的负面效应,提升模型准确性和收敛性。提升模型准确性和收敛性。提升模型准确性和收敛性。

【技术实现步骤摘要】
一种自适应的隐私保护联邦学习方法


[0001]本专利技术涉及联邦学习(Federated Learning)安全领域和数据隐私领域,具体涉及一种自适应的隐私保护联邦学习方法。

技术介绍

[0002]联邦学习是一种分散式机器学习技术,其中多个客户端设备共同学习一个神经网络模型而不将其本地数据发送到云服务器。与集中式机器学习相比,联邦学习显着减轻了客户的隐私问题,因为它不需要集中他们的私人数据。然而,研究人员发现联邦学习仍然面临各种数据安全和隐私问题。这是因为参与者传递的模型参数和梯度信息可能会泄露数据隐私,导致攻击者可以通过这些信息重构出客户端本地的训练数据。
[0003]针对上述的隐私泄露问题,联邦学习的隐私保护技术主要分为以下两类:1)基于加密的隐私保护的方法,主要使用密码技术进行隐私保护,主流的方法有同态加密和安全多方计算。该方法可以保留原始模型训练的准确性并实现高隐私保证。然而,这类方法会产生大量的通信成本和计算成本,不太适用于参与者多、数据量大的联邦学习场景。2)基于扰动的隐私保护方法,主流方法是差分隐私技术(DP)。差分隐私技术通过在梯度信息上添加可度量的噪声来扰动梯度,从而防止真实梯度泄露带来的隐私攻击。虽然差分隐私技术由于其高效轻量的特点更适合联邦学习场景,现有基于差分隐私技术的联邦学习方法无法有效地权衡模型的隐私性和准确率,特别是在需要高可用性的模型情况下,数据的隐私保护得不到充分的保障。
[0004]因此,针对现有技术所存在的问题,当下迫切需要研究如何使用差分隐私技术实现高效、轻量、灵活的自适应的隐私保护联邦学习方法,以满足国家对数据安全保护的需求。

技术实现思路

[0005]本专利技术针对现有技术的不足之处作出了改进,提供了一种自适应的隐私保护联邦学习方法,既可以保证模型联合训练精度的同时能够抵御梯度攻击使其无法恢复出客户端的训练数据,本专利技术是通过以下技术方案来实现的:
[0006]本专利技术公开了一种自适应的隐私保护联邦学习方法,包含如下步骤:
[0007]1):初始化阶段;
[0008]1.1)收集与联邦学习任务相关的公共样本作为评估数据集;
[0009]1.2)初始化全局模型;
[0010]1.3)初始化总的隐私预算(差分隐私机制中隐私强度的度量指标);
[0011]2):根据评估数据集和全局模型评估当前通信轮次的隐私泄露风险;
[0012]3):根据评估的隐私泄露风险对总的隐私预算进行分解,得到当前通信轮次的隐私预算;
[0013]4):根据隐私预算和当前全局模型,采用自适应的差分隐私随机梯度下降法(ADP

SGD)开展本地模型训练得到新的本地模型;
[0014]4.1)将分配预算转化为零均值集中差分隐私(zCDP)范式并用全局模型初始化本地模型;
[0015]4.2)根据隐私预算和当前模型训练周期计算当前模型训练周期使用的噪声等级;
[0016]4.3)根据噪声等级更新剩余的隐私预算;
[0017]4.4)根据当前模型迭代周期计算当前模型迭代周期使用的梯度裁剪系数;
[0018]4.5)根据反向传播计算当前模型迭代周期的梯度;
[0019]4.6)根据梯度裁剪系数对当前模型迭代周期生成的梯度进行裁剪;
[0020]4.7)根据噪声等级和梯度裁剪系数计算噪声扰动参数,并在裁剪后的梯度上按噪声扰动参数添加高斯噪声得到扰动后梯度;
[0021]4.8)根据扰动后的梯度按梯度下降发更新本地模型(初始值为全局模型);
[0022]迭代4.2)到4.8)直到4.3)计算的剩余隐私预算小于0或模型训练周期结束;
[0023]5)本地模型聚合得到新的全局模型:
[0024]循环执行步骤2)到5),直至全局模型收敛(模型准备率不再提升或者提升范围小于阈值10^

4),联邦学习模型训练停止。
[0025]作为进一步地改进,本专利技术所述的评估当前通信轮次的隐私泄露风险具体为:服务器使用收集到的评估数据集来测试当前全局模型的准确率,并用其作为隐私泄露风险指示器来表征当前通信轮次的隐私泄露风险,考虑到全局模型的准确率会出现一定范围的小波动,为降低波动对隐私泄露风险评估的影响,若S
t
表示t通信轮次的全局模型的准确率,模型准确率增值表示为:
[0026][0027]当训练刚起步阶段,缺乏有效的全局模型准确率数据,和取值为1。
[0028]作为进一步地改进,本专利技术所述的隐私预算进行分解具体为:在完成隐私泄露风险测算后,根据当前通信轮次的隐私风险计算当前通信轮次的隐私预算∈
t

[0029][0030]其中∈是总隐私预算,∈
c
是已消耗预算,T代表预设的总通信轮次,是当前通信轮次的全局模型准确率增量,用于评估隐私泄露风险。
[0031]作为进一步地改进,本专利技术所述的所述的自适应的差分隐私随机梯度下降法(ADP

SGD)具体为:每个客户端基于下发的全局模型和根据隐私泄露风险得到的隐私预算,其使用自身本地数据集开展本地模型训练;
[0032]在ADP

SGD中,首先将分配预算∈
t
转化为零均值集中差分隐私(zCDP)范式,因此,∈
t
转化为
[0033]ρ
t
=(∈
t
)2/(4log(1/δ))
[0034]其中ρ
t
表示zCDP范式下隐私预算,(∈
t
,δ)是DP范式下的隐私参数,对每个训练周期(Epoch),首先更新当前剩余的隐私预算ρ
left
,并且决定当前周期的噪声等级(消耗一定的隐私预算),为提升收敛性,噪声等级应该随着训练周期衰减,因此每个训练周期的噪声
等级σ
e

[0035][0036]其中ρ
t
是当前通信轮次分配给用户的隐私预算,β用来控制初始的噪声等级,k
σ
是噪声等级衰减率,E为预设的训练周期(训练周期结束,本地训练停止),e是当前训练周期,决定每个本地训练周期的噪声等级后,隐私预算剩余
[0037][0038]其中ρ
left
的初始值设为ρ
t
,为了确保隐私预算不超过分配的ρ
t
,隐私预算耗尽(ρ
left
≤0),停止训练;
[0039]在每个模型迭代周期τ(Iteration),从客户端数据集中通过随机重组的方法选取一批样本B,对批次内样本(x
k
,y
k
)∈B,利用反向传播计算样本梯度,之后对梯度进行裁剪,
[0040][0041]其中L表示损失函数,F表示训练模型,w是模型参数,g(x
k
)和分别表示原始梯度和裁剪后梯本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种自适应的隐私保护联邦学习方法,其特征在于,包含如下步骤:1):初始化阶段;1.1)收集与联邦学习任务相关的公共样本作为评估数据集;1.2)初始化全局模型;1.3)初始化总的隐私预算;2):根据评估数据集和全局模型评估当前通信轮次的隐私泄露风险;3):根据评估的隐私泄露风险对总的隐私预算进行分解,得到当前通信轮次的隐私预算;4):根据隐私预算和当前全局模型,采用自适应的差分隐私随机梯度下降法开展本地模型训练得到新的本地模型;4.1)将分配预算转化为零均值集中差分隐私范式并用全局模型初始化本地模型;4.2)根据隐私预算和当前模型训练周期计算当前模型训练周期使用的噪声等级;4.3)根据噪声等级更新剩余的隐私预算;4.4)根据当前模型迭代周期计算当前模型迭代周期使用的梯度裁剪系数;4.5)根据反向传播计算当前模型迭代周期的梯度;4.6)根据梯度裁剪系数对当前模型迭代周期生成的梯度进行裁剪;4.7)根据噪声等级和梯度裁剪系数计算噪声扰动参数,并在裁剪后的梯度上按噪声扰动参数添加高斯噪声得到扰动后梯度;4.8)根据扰动后的梯度按梯度下降发更新本地模型(初始值为全局模型);迭代4.2)到4.8)直到4.3)计算的剩余隐私预算小于0或模型训练周期结束;5)本地模型聚合得到新的全局模型:循环执行步骤2)到5),直至全局模型收敛,联邦学习模型训练停止。2.如权利要求书1所述的自适应的隐私保护联邦学习方法,其特征在于,所述的评估当前通信轮次的隐私泄露风险具体为:服务器使用收集到的评估数据集来测试当前全局模型的准确率,并用其作为隐私泄露风险指示器来表征当前通信轮次的隐私泄露风险,考虑到全局模型的准确率会出现一定范围的小波动,为降低波动对隐私泄露风险评估的影响,若S
t
表示t通信轮次的全局模型的准确率,模型准确率增值表示为:当训练刚起步阶段,缺乏有效的全局模型准确率数据,和取值为1。3.如权利要求书1所述的自适应的隐私保护联邦学习方法,其特征在于,所述的隐私预算进行分解具体为:在完成隐私泄露风险测算后,根据当前通信轮次的隐私风险计算当前通信轮次的隐私预算∈
t
:其中∈是总隐私预算,∈
c
是已消耗预算,T代表预设的总通信轮次,是当前通信轮次的全局模型准确率增量,用于评估隐私泄露风险。
4.如权利要求书1所述的自适应的隐私保护联邦学习方法,其特征在于,所述的自适应的差分隐私随机梯度下降法ADP

SGD具体为:每个客户端基于下发的全局模型和根据隐私泄露风险得到的隐私预算,其使用自身本地数据集开展本地模型训练;在ADP

SGD中,首先将分配预算∈
t
转化为零均值集中差分隐私zCDP范式,因此,∈
t
转化为ρ

【专利技术属性】
技术研发人员:王志波胡佳慧申永生任奎
申请(专利权)人:杭州城市大脑有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1