基于博弈方式的差分隐私联邦学习方法、系统及存储介质技术方案

技术编号:36265065 阅读:53 留言:0更新日期:2023-01-07 10:04
一种基于博弈方式的差分隐私联邦学习方法、系统及存储介质,方法包括服务器初始化训练模型并向所有客户端发布训练模型所需要的信息;客户端选择是否使用调解中介,如果选择使用调解中介,则向调解中介提交客户端数据;调解中介根据静态完全信息博弈的纳什均衡策略向客户端返回建议;客户端向服务器提交关于数据质量的最终决策;服务器根据奖励规则计算客户端所得到的报酬并根据总预算发布奖金;客户端基于所获的报酬和服务器所发布的奖金,选择是采取隐私代理的中心扰动方式还是采取本地扰动参数的方式,并向服务器更新训练参数;服务器在达到满意的训练模型参数之后停止训练,并向客户端支付相应的报酬和奖金。本发明专利技术提高了模型的精度和可用性。提高了模型的精度和可用性。提高了模型的精度和可用性。

【技术实现步骤摘要】
基于博弈方式的差分隐私联邦学习方法、系统及存储介质


[0001]本专利技术属于联邦学习
,具体涉及一种基于博弈方式的差分隐私联邦学习方法、系统及存储介质。

技术介绍

[0002]近年来,联邦学习成为解决机器学习中数据孤岛与隐私泄露问题的新思路。联邦学习框架不需要多方共享数据资源,客户端在本地数据上训练局部模型,周期性地将参数上传至服务器更新全局模型,就可以获得在大规模全局数据上建立的机器学习模型。联邦学习框架具有数据隐私保护的特质,但该架构的参数交互方式可能导致数据隐私泄露,因此,联邦学习框架中的隐私保护问题成为了一大研究热点。联邦学习中的隐私保护技术经过多年的发展,出现了各种基于加密和差分隐私的解决方案。
[0003]其中,用于联邦学习的密码学解决方案利用加密技术对本地模型参数、数据加密,服务器无法获知参与者的模型参数,也无法获取参与者的原始数据或预测结果,保护了训练阶段及预测阶段的数据隐私。其中联邦学习框架中常用的加密技术是同态加密技术(Homomorphic Encryption,HE),数据加密后仍可进行算术计算。针对模型训练阶段的隐私保护,可采用加法同态加密方法(Additive Homomorphic Encryption,AHE[1]),每个参与者利用AHE将模型参数加密并发送至服务器,服务器收到参数后无需解密,运行同态加运算更新参数值;而对于模型预测阶段的解决方案可采用Paillier加密技术将训练模型的函数转换为密文的形式,参与者将加密格式的数据发送至服务器,服务器利用同态加密的属性直接在加密数据上进行预测。
[0004]而基于差分隐私的联邦学习框架[2,3]则是在发布的模型参数中引入一定程度的随机噪声,使得参与者对训练结果不敏感,达到在模型训练阶段和发布阶段保护参与者对本地模型参数或全局模型参数的效果。在联邦学习中实现差分隐私的技术包含中心化差分隐私和混洗差分隐私。针对模型训练阶段的隐私保护,客户端在本地模型的参数上添加满足差分隐私的噪声,服务器在聚合时无法获取参与者的精确参数,而采用中心化差分隐私在聚合时对隐私预算要求颇高,因此可采用混洗差分隐私模型降低对隐私预算的要求,即使用较小的本地隐私预算也可以实现全局数据模型上更大的隐私保护度;而对于模型发布阶段的方案可直接利用差分隐私技术对全局模型参数进行噪声扰动。
[0005]无论是基于加密还是差分隐私的联邦学习框架,都存在同一个问题。两种解决方案均没有考虑客户端参与训练的动机和参与者训练数据的质量。大多数开发人员认为最终的训练模型可以激励他们认真参与训练,但现实却与之相反,即使客户端确实参加训练,它们也可能需要一些奖励来确保在整个训练过程中积极贡献自己的数据并表现可靠。然而目前的联邦学习框架设计并没有给出具体的方案可以激励参与者参与训练同时贡献自己的高质量数据。
[0006]使用同态加密的联邦学习框架需要较高的计算花销和通信代价,虽然不牺牲模型可用性,但并不支持联邦学习中的一些非线性运算,需要利用多项式近似表示目标函数,因
此在一定程度上会造成模型精度的下降。而基于差分隐私的联邦学习框架为保护客户隐私要求参与者在本地添加随机噪声扰动训练参数,这些噪声的引入会给模型可用性带来影响,并且会严重影响到联邦学习框架的整体性能,目前的差分隐私联邦学习框架并没有给出解决方案。
[0007][1]L.Phong,Y.Aono,T.Hayashi,L.Wang,and S.Moriai,“Privacy

preserving deep learning via additively homomorphic encryption,”IEEE Transactions on Information Forensics and Security,vol.13,no.5,pp.1333

1345,2017
[0008][2]C.Zhou,A.Fu,S.Yu,W.Yang,H.Wang,and Y.Zhang,“Privacy

preserving federated learning in fog computing,”IEEE Internet of Things Journal,vol.7,no.11,pp.10 782

10 793,2020
[0009][3]K.Wei,J.Li,M.Ding,C.Ma,H.H.Yang,F.Farokhi,S.Jin,T.Q.S.Quek,and H.Vincent Poor,“Federated learning with differential privacy:Algorithms and performance analysis,”IEEE Transactions on Information Forensics and Security,vol.15,pp.3454

3469,2020.

技术实现思路

[0010]本专利技术的目的在于针对上述现有技术中的问题,提供一种基于博弈方式的差分隐私联邦学习方法、系统及存储介质,将博弈论和差分隐私相结合,从博弈论的角度考虑客户端参与训练的动机以及参与者训练数据的质量,并设计奖励机制来激励客户贡献其高质量数据;同时,从差分隐私的角度提高联邦学习模型训练的精度,结合中心化差分隐私和本地化差分隐私两种添加噪声的方式来提高训练模型的可用性。
[0011]为了实现上述目的,本专利技术有如下的技术方案:
[0012]第一方面,提供一种基于博弈方式的差分隐私联邦学习方法,包括:
[0013]服务器初始化训练模型并向所有客户端发布训练模型所需要的信息;
[0014]客户端选择是否使用调解中介,如果选择使用调解中介,则向调解中介提交客户端数据;
[0015]调解中介根据静态完全信息博弈的纳什均衡策略向客户端返回建议;
[0016]客户端向服务器提交关于数据质量的最终决策;
[0017]服务器根据奖励规则计算客户端所得到的报酬并根据总预算发布奖金;
[0018]客户端基于所获的报酬和服务器所发布的奖金,选择是采取隐私代理的中心扰动方式,还是采取本地扰动参数的方式,并向服务器更新训练参数;
[0019]服务器在达到满意的训练模型参数之后停止训练,并向客户端支付相应的报酬和奖金。
[0020]作为本专利技术方法的一种优选方案,所述调解中介根据静态完全信息博弈的纳什均衡策略向客户端返回建议的步骤包括:
[0021]调解中介收到客户端数据后,计算每种质量的客户数量并对计数值添加噪声,根据计数值来评估当前的效益;
[0022]基于当前的计数值和效益,对每个客户的策略进行调整,并做出当前的最佳响应;
[0023]按照预定义的顺序迭代进行调整,直到收敛至纳什均衡;
[0024]将建议结果返回每个客户端。
[0025]作为本专利技术方法的一种优选方案,所述服务器根本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于博弈方式的差分隐私联邦学习方法,其特征在于,包括:服务器初始化训练模型并向所有客户端发布训练模型所需要的信息;客户端选择是否使用调解中介,如果选择使用调解中介,则向调解中介提交客户端数据;调解中介根据静态完全信息博弈的纳什均衡策略向客户端返回建议;客户端向服务器提交关于数据质量的最终决策;服务器根据奖励规则计算客户端所得到的报酬并根据总预算发布奖金;客户端基于所获的报酬和服务器所发布的奖金,选择是采取隐私代理的中心扰动方式,还是采取本地扰动参数的方式,并向服务器更新训练参数;服务器在达到满意的训练模型参数之后停止训练,并向客户端支付相应的报酬和奖金。2.根据权利要求1所述基于博弈方式的差分隐私联邦学习方法,其特征在于,所述调解中介根据静态完全信息博弈的纳什均衡策略向客户端返回建议的步骤包括:调解中介收到客户端数据后,计算每种质量的客户数量并对计数值添加噪声,根据计数值来评估当前的效益;基于当前的计数值和效益,对每个客户的策略进行调整,并做出当前的最佳响应;按照预定义的顺序迭代进行调整,直到收敛至纳什均衡;将建议结果返回每个客户端。3.根据权利要求1所述基于博弈方式的差分隐私联邦学习方法,其特征在于,所述服务器根据奖励规则计算客户端所得到的报酬并根据总预算发布奖金的步骤包括:每个客户端向服务器发送优选的数据质量级别,服务器确定客户端可以获得的奖励r
i
,并根据总预算为选择使用隐私代理的客户端发布额外奖金b。4.根据权利要求3所述基于博弈方式的差分隐私联邦学习方法,其特征在于,所述客户端基于所获的报酬和服务器所发布的奖金,选择是采取隐私代理的中心扰动方式,还是采取本地扰动参数的方式,并向服务器更新训练参数的步骤包括:设置一个剪裁阈值C调整模型参数大小,模型参数的最大值不超过C;比较客户收到的金额大小(r
i
+b)和补偿的期望值v
i
:若收到的金额(r
i
+b)大于等于v
i
,则客户端选择直接提交模型精确参数;若收到的金额(r
i
+b)小于v
i
,客户端选择本地扰动的方式,采用满足差分隐私的高斯机制直接对裁剪后的模型参数添加噪声,并直接向服务器提交扰动参数,而选择这种方式,客户仅能收到奖励r
i
而不能得到额外奖金b。5.根据权利要求4所述基于博弈方式的差分隐私联邦学习方法,其特征在于,所述服务器在达到满意的训练模型参数之后停止训练,并向客户端支付相应的报酬和奖金的步骤包括:对于本地扰动的噪声参数,直接采用加权平均公式得到平均值M
L
;对于接收到的精确参数,先计算平均值再根据高斯机制添加噪声得到平均值M
C
;设置一个权重参数w,根据公式M=w*M
L
+(1

w)*M
C
得到聚合值M,并将聚合值M返回给每个客户端进行本地更新;当服务器接收到满意的模型参数时,就停止训练并根据每个客户端的选择向客户端支付相应的奖励和奖金。
6.一种用于实现权利要求1至5中任一项所述基于博弈方式的差分隐私联邦学习方法的系统,其特...

【专利技术属性】
技术研发人员:张亮吴志刚曹晓光许斌吴世山赵力文张海威
申请(专利权)人:杭州世平信息科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1