一种提供自适应梯度的差分私有联邦学习方法及装置制造方法及图纸

技术编号:36884096 阅读:13 留言:0更新日期:2023-03-15 21:24
本发明专利技术实施例提供了一种自适应梯度的差分私有联邦学习方法及装置,该方法应用于联邦学习架构,所述方法包括以下步骤:聚合服务器初始化训练模型和训练参数后下发至所有终端设备,通过终端设备初始训练反馈得到量化值列表;确定迭代次数,每次迭代包括:终端设备更新本地训练集,自适应采集训练数据,确定本地训练所需差分预算,生成更新参数,计算局部代价函数值,并同训练数据样本数和更新参数一同上传至聚合服务器;聚合服务器执行终端设备过滤,确定满足数量的终端设备集合,并执行加权聚合,更新量化值列表,并下发至所有终端设备;完成预设迭代次数后,得到输出模型。基于上述处理,可以提高联邦学习在应用差分隐私时训练的收敛率。的收敛率。的收敛率。

【技术实现步骤摘要】
一种提供自适应梯度的差分私有联邦学习方法及装置


[0001]本专利技术涉及隐私保护
,特别是涉及一种提供自适应梯度的差分私有联邦学习方法及装置。

技术介绍

[0002]联邦学习是一种机器学习技术,其通过利用多个分布式边缘设备上的本地样本数据共同训练算法,可以有效避免数据集中化造成的隐私泄露。然而,模型反转攻击和成员推理攻击等潜在风险可能会大大增加敏感个人信息泄露的概率。因此,如何保证存储在分布式客户端的数据安全,正成为联合训练的难点和热点。目前,已经有一些研究将差分隐私(Differential Privacy)应用于优化器和样本扰动来保护数据隐私。然而,这一行为往往会导致收敛率降低,尤其是在非独立同分布(Non

independent and identically distributed,non

iid)环境下。
[0003]模型反转攻击旨在通过模型的预测输出获取关于模型的训练数据或者测试数据的信息。成员推理攻击旨在给定模型的黑盒访问权限,用以训练一个二分类器来判断数据是否来自目标模型的训练数据或者测试数据。为了在联邦学习中抵抗上述攻击,已有一些研究通过应用差分隐私为聚合和下发的联邦学习模型叠加扰动来提高敌手的推测难度,但直接应用差分隐私可能导致联邦聚合的总轮数上升,收敛率降低。
[0004]非独立同分布是指一组随机变量中每个变量的概率分布不同,且这些随机变量互相独立。对应于联邦学习架构,这一环境意味着不同客户端的数据将存在不同的标签分布与数据分布。相较于独立同分布环境下的联邦学习架构,非独立同分布环境下的联邦学习架构存在显著的收敛性问题。较低的更新频率将导致学习模型的性能大幅度降低,甚至不收敛。较高的更新频率,又会极大增加训练的通信代价和计算成本。而在应用差分隐私后,这一情况还会继续加剧。
[0005]差分隐私定义了一个严格的攻击模型,以提供一个定量的隐私泄漏描述。它侧重于保护数据分布的统计特征,并在确保统计数据效用的前提下,保护个人隐私。实现差分隐私的关键技术在于叠加噪声的扰动。隐私保护的水平与函数的敏感性和隐私预算直接相关。对应用差分隐私的邻接数据集(通过增加或删除一个数据集的一行来获得另一个数据集)执行查询函数,可以实现获得相同输出的概率几乎相同的效果。另一方面,差分隐私不受攻击者的背景知识影响,背景知识的量级将不影响差分隐私的性能。这意味着,即使攻击者已经掌握了除某一记录外的所有记录的敏感信息,该记录仍然不会被披露。

技术实现思路

[0006]本专利技术实施例的目的在于提供一种自适应梯度的差分私有联邦学习方法及装置,以提高联邦学习在应用差分隐私时训练的收敛率。具体技术方案如下:
[0007]第一方面,为了达到上述目的,本专利技术实施例提供了一种数据处理方法,所述方法应用于对联邦学习的任一终端设备的本地训练进行自适应的差分私有的参数扰动。所述方
法包括多次迭代过程,其中分为第一执行轮与后续迭代轮。
[0008]第一执行轮包括:
[0009]聚合服务器初始化训练模型,拟定模型各层及对应单元等模型细节并随机生成初始模型权重;聚合服务器拟定本地损失函数、初始本地学习率、初始本地训练批次、初始本地训练轮数和初始本地裁剪阈值,并将其与模型信息和测试数据一同下发至所有终端设备;所有终端设备从本地训练集中选取训练数据,所有终端设备执行所述初始训练轮数的随机梯度下降(Stochastic Gradient Descent,SGD)并生成第一轮本地模型权重;所有终端设备基于初始模型权重和第一轮模型权重,生成更新参数;所有终端设备基于第一轮本地模型权重计算测试数据的局部代价函数值;所有终端设备将所述训练数据样本数、所述更新参数和所述局部代价函数值上传至聚合服务器;聚合服务器对收到的第一执行轮的所有终端设备的更新参数根据所述训练数据样本数进行加权聚合,并计算测试数据的全局代价函数值;聚合服务器基于所述局部代价函数值和全局代价函数值为所有终端设备生成量化值,确定其初始非独立同分布程度,并将其与聚合模型权重下发至所有终端设备。
[0010]后续迭代轮包括:
[0011]聚合服务器初始化全局训练轮数,拟定每轮所需聚合的终端设备数量、聚合优化器、全局学习率、本轮本地学习率、本地训练批次、本地训练轮数和本地裁剪阈值,并将其与测试数据一同下发至所有终端设备;所有终端设备更新本地训练集并自适应选取训练数据;所有终端设备根据上一轮所述量化值、本轮学习率和本地训练数据,确定本地训练所需的差分预算;所有终端设备执行所述训练轮数的差分私有随机梯度下降(Differentially

Private Stochastic Gradient Descent,DP

SGD)并生成新一轮本地模型权重;所有终端设备基于聚合模型权重和新一轮模型权重,生成更新参数;所有终端设备基于新一轮本地模型权重计算测试数据的局部代价函数值;所有终端设备将所述训练数据样本数、所述更新参数和所述局部代价函数值上传至聚合服务器。
[0012]聚合服务器对收到的终端设备反馈执行终端设备过滤算法,基于所述每轮所需的终端设备数量,筛选满足数量的终端设备集合,并在筛选完成后对终端设备集合中的更新参数根据所述训练数据样本数进行加权聚合,并计算测试数据的全局代价函数值;聚合服务器基于所述局部代价函数值和全局代价函数值为集合内终端设备生成量化值,更新其初始非独立同分布程度,并将更新后的量化值列表下发至所有终端设备。
[0013]重复所述全局训练轮数,完成本次训练。
[0014]可选的,所述的确定本地训练所需的差分预算,包括:上一轮聚合服务器下发更新的量化值列表中确定目标终端设备的量化值,本轮聚合器下发更新的本轮本地学习率和终端设备量化值确定目标终端学习率。其中,一个终端设备的更新后所述量化值越大,本地训练数据样本量越小,该终端设备与全局最优模型的差异越大,客户端漂移程度与非独立同分布现象越严重,所需目标终端学习率越大,所需扰动等级越高,所需差分预算越少。
[0015]第二方面,为了达到上述目的,本专利技术实施例提供了一种数据处理方法,所述方法应用于第一方面所述终端设备过滤,所述方法包括:第一确定模块,当接收到终端设备的局部代价函数值时,基于所述局部代价函数值和全局代价函数值为该终端设备生成量化值并将当前轮数的量化值更新存储至预设存储模块;当接收到终端设备的训练数据样本数时,记录其反馈时间,并生成训练数据样本数与反馈时间的比值;基于所述当前轮数的量化值
更新与所述训练数据样本数与反馈时间的比值,确定预设比例系数,计算终端设备质量,并将其映射至指定区间;第二确定模块,基于每轮所需聚合的终端设备数量,预设上限大小为该数量的存储模块,用以存储筛选后满足聚合服务器要求的终端设备集合。
[0016]进一步地,本轮该终端设备质量可通过质量函数评估,其中d
i
表示所述当前轮数的量化更新,o
i
表示当前轮数本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种提供自适应梯度的差分私有联邦学习方法,其特征在于,包括以下步骤:聚合服务器初始化训练模型,随机生成初始模型权重,确定全局训练轮数、全局学习率、本地损失函数、本地学习率、本地训练批次和本地训练轮数,并下发至所有终端设备;确定是否为初始化轮;当确定为初始化轮时,所有终端设备从本地训练集中选取训练数据,执行所述本地训练轮数的随机梯度下降,计算模型更新参数和局部代价值,并上传至所述聚合服务器。所述聚合服务器执行聚合,建立终端设备量化值列表,并下发至所述终端设备。当确定为非初始化轮时,所述聚合服务器拟定每轮所需聚合的终端设备数量和聚合优化器;所述终端设备更新本地训练集,并自适应采集所述训练数据;根据上一轮所述量化值、所述本地学习率和所述本地训练数据,确定本地训练所需的差分预算;所述终端设备执行差分私有随机梯度下降,生成更新参数,计算局部代价函数值,并同训练数据样本数和更新参数一同上传至所述聚合服务器;所述聚合服务器执行终端设备过滤,确定满足数量的终端设备集合;所述聚合服务器执行加权聚合,更新所述量化值列表,并下发至所述所有终端设备;确定达到所述全局训练轮数后,所述聚合服务器训练完成并输出所述训练模型。2.根据权利要求1所述的方法,其特征在于,所述确定本地训练所需的差分预算,包括:根据上一轮所述聚合服务器下发更新的所述量化值列表,确定目标终端设备的量化值;根据本轮聚合器下发更新的所述本轮本地学习率和所述终端设备量化值,确定目标终端学习率。其中,一个终端设备的更新后所述量化值越大,所述本地训练数据样本量越小,则该终端设备与全局最优模型的差异越大,客户端漂移程度与非独立同分布现象越严重,所需目标终端学习率越大,所需扰动等级越高,所需差分预算越少。3.根据权利要求1所述的方法,其特征在于,所述聚合服务器执行终端设备过滤,包括:所述聚合服务器预设当前轮拟聚合终端设备数量大小的存储模块和终端设备质量阈值;确定当前轮接收反馈数量是否大于所述存储模块上限;当确定当前轮接收反馈数量小于所述存储模块上限时,所述聚合服务器依次将终端设备索引及其质量函数值以对组形式存入所述存储模块;所述聚合服务器将所述对组根据所述质量函数值进行由高到低排序;当确定当前轮接收反馈数量大于所述存储模块上限时,根据接收到的新的终端设备反馈,计算其所述质量函数值,并与所述存储模块中排序最后的对组的质量函数值进行比较;确定所述质量函数值是否大于所述存储模块中排序最后的对组的质量函数值;当确定所述质量函数值小于所述存储模块中排序最后的对组的质量函数值时,丢弃当前所述终端设备反馈;所述质量函数值大于所述存储模块中排序最后的对组的质量函数值时,向所述存储模块插入新对组并重新排序;判断所述存储模块中排序最后的所述质量函数值是否大于所述终端设备质量阈值;当
所述质量函数值小于于所述终端设备质量阈值时,所述聚合服务器继续接受新的所述终端设备反馈;当所述质量函数值大于所述终端设备质量阈值时,完成所述终端设备集合筛选。4.根据权利要求3所述的方法,其特征在于,所述终端设备反馈...

【专利技术属性】
技术研发人员:孙溢赵子润
申请(专利权)人:北京邮电大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1