【技术实现步骤摘要】
一种通信高效的隐私保护个性化联邦学习方法
[0001]本专利技术属于隐私保护以及联邦学习领域,具体涉及一种通信高效的隐私保护个性化联邦学习方法。
技术介绍
[0002]如今,随着设备计算能力的提升,许多优秀的模型被开发出来,以提取日常生成的大量数据中的潜在模式,这推动了深度学习(Deep Learning,DL)的快速发展。然而,传统的集中式深度学习会因为海量数据传输而导致通信拥塞,无法有效保证服务质量。而且,数据收集过程中的隐私泄漏是其面临的主要威胁。联邦学习(Federated Learning,FL)作为分布式深度学习中的一种具有前景的范式,在隐私保护和通信开销方面都取得了长足的进步。
[0003]尽管FL比集中式DL产生更多优势,但模型更新过程仍然会带来巨大的通信开销,尤其是当客户端具有大规模模型时。同时许多具有隐私保护的通信高效FL方案使用了多余的加密算法,这将导致产生更多的计算成本。针对上述问题,目前的研究方向主要有以下三种方案。
[0004]第一类方案通过减少通信轮数、选择部分参与客户端或最小化通信时间来提高通信效率。该方案虽然有助于提高通信效率,但并没有从根本上降低模型参数的数据规模,即单轮通信中仍然存在海量参数,尤其是在客户端模型规模较大的情况下。
[0005]第二类方案通过各种压缩方法减少上传或下载参数的数据量。该方案确实通过减少通信比特而节省了通信成本。但是,当数据是Non
‑
IID时,它们无法实现高效的训练性能。同时,假设所有的客户端模型都是同质的,这 ...
【技术保护点】
【技术特征摘要】
1.一种通信高效的隐私保护个性化联邦学习方法,其特征在于,该方法包括如下步骤:(1)基于不同客户端对隐私保护需求的不同,设计具有隐私保护的个性化联邦学习网络模型,该模型由隐私客户端、公共客户端和中央服务器组成;(2)所有客户端通过各自的神经网络学习知识,并结合本地数据集学习到的知识与全局知识实现个性化学习,其中,客户端利用本地数据集对本地神经网络完成训练之后,隐私客户端通过将其神经网络梯度与公共客户端的神经网络梯度分组聚合后再进行梯度压缩,以此降低通信开销并保护梯度信息,隐私客户端将压缩后的梯度上传到中央服务器进行全局聚合;(3)中央服务器对收到客户端上传的压缩梯度进行解压重构,对重构的梯度再进行全局聚合,并更新全局神经网络,最后将全局神经网络的模型参数分发给每个客户端。2.根据权利要求1所述的一种通信高效的隐私保护个性化联邦学习方法,其特征在于,步骤(1)包括如下内容:设置中央服务器的范围内有N个隐私客户端和M个公共客户端,隐私客户端i∈{1,2,
…
N}从公共组{1,2,
…
M}中随机选取K
i
个公共客户端组成一个新的组,所有客户端被分成N个组,隐私客户端和公共客户端利用自己的本地数据集训练其神经网络,并在中央服务器的协助下通过共享神经网络梯度进行联邦学习,实现客户端之间的协作。3.根据权利要求2所述的一种通信高效的隐私保护个性化联邦学习方法,其特征在于,步骤(2)包括如下内容:步骤2.1),客户端i利用其本地数据集D
i
对其神经网络进行训练,该神经网络由三个子模型组成,分别是私有模型、共享模型和融合模型,私有模型从本地数据集中提取到特征共享模型提取到特征将经过桥接层与进行拼接之后输入融合模型完成特征融合得到融合特征三个子模型基于知识蒸馏进行相互学习完成本地训练,其中,每个子模型的损失由两部分组成,一个是预测的硬目标和ground
‑
truth之间的交叉熵损失另一个是子模型之间软目标的Kullback
‑
Leibler(KL)散度设计一个与时间无关的平衡权重α对进行缩放,该权重随着高斯过程从0慢慢上升到1,即:其中,t和t
stop
分别是α的当前迭代和停止rum
‑
up迭代次数,当整个训练过程达到预设的稳定时,α的值固定为1,私有模型、共享模型和融合模型的训练损失分别定义如下:下:下:其中,和分别表示私有模型、共享模型和融合模型的硬目标,对应的是它们的软目标,其中,T为控制软
度的蒸馏温度,当T=1时,soft()为softmax函数;公式中的是私有模型和共享模型的加权集合软目标,将其定义为:其中,β∈[0.5,1]是集合权衡因子,采用rum
‑
up方法来随时间动态将(1
‑
β)从0.5调整至1,其为和的加权集成特征;根据上述分析,将本地客户端i的总损失模型定义为:将共享模型的梯度上传到中央服务器进行全局聚合,共享模型的梯度g
i
为:其中,表示客户端i中共享模型关于本地数据集中样本b的模型参数,n
i
是D
i
的样本数量,表示客户端i中共享模型关于本地数据集中样本b的训练损失;私有模型和融合模型仅在本地更新,具体过程如下:私有模型和融合模型仅在本地更新,具体过程如下:其中,ε是私有模型和融合模型的学习率,分别为客户端i中私有模型和融合模型的参数,分别为客户端i中私有模型和融合模型关于本地数据集中样本b的模型参数;步骤2.2),当所有客户端完成本地训练时,隐私客户端将执行梯度的组聚合,则隐私客户端i的梯度g
i
更新为:其中,表示与隐私客户端i同组的公共客户端k的梯度;步骤2.3),将对上述聚合后的梯度g
i
进行压缩。4.根据权利要求3所述的一种通信高效的隐私保护个性化联邦学习方法,其特征在于,本地数据集采用MNIST或CI...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。