【技术实现步骤摘要】
一种对抗联邦学习中多用户参数有偏聚合的动态功率控制方法及系统
[0001]本专利技术涉及一种对抗联邦学习中多用户参数有偏聚合的动态功率控制方法及系统,属于分布式机器学习领域。
技术介绍
[0002]随着现代智能终端计算能力和存储容量的大幅提升,联邦学习这种新型的分布式机器学习算法应运而生,为实现隐私计算提供了一种有效途径。传统的机器学习方法要求将训练所用的数据集中在服务器并建立模型,而联邦学习能够在数据不共享的情况下构建全局模型,不涉及数据的传输,极大地保证了每个参与者的数据隐私安全。[Brendan McMahan H,Moore E,Ramage D,et al.Communication
‑
efficient learning of deep networks from decentralized data[J].arXiv e
‑
prints,2016:arXiv:1602.05629.]。
[0003]在联邦学习中,边缘设备以及服务器定期上下行传递模型参数时,参与学习过程的边缘设备共享相同的无线介质以向边缘服务器传送本地更新,有限的无线频谱、功率资源可能带来严重拥塞,从而导致联邦学习的通信瓶颈。大规模的客户端很容易对通信网络造成巨大的带宽负担,为了解决这个问题,一种有前景的解决方案是执行联邦边缘学习所需的计算,利用无线多址信道的信号叠加特性的空中计算(AirComp)方法,有效降低通信开销,达到全局模型快速收敛的效果。[Zhu G,Wang Y,Huang K.B ...
【技术保护点】
【技术特征摘要】
1.一种对抗联邦学习中多用户参数有偏聚合的动态功率控制方法,其特征在于,具体实现步骤包括:(1)建立对抗参数有偏聚合的联邦学习系统模型;(2)基于联邦学习系统模型训练的目的,构建相应的目标函数;(3)根据步骤(1)中建立的联邦学习系统模型,引入对抗用户有偏梯度聚合的功率控制因子,确定相应的空中计算通信模型;(4)收发机之间不考虑协同操作,接收器端使用非相干能量检测法进行信号处理;(5)根据步骤(4)的方法,确立基于对抗参数有偏聚合的联邦学习安全机制方法,完成联邦学习系统模型的更新训练过程。2.根据权利要求1所述的一种对抗联邦学习中多用户参数有偏聚合的动态功率控制方法,其特征在于,该动态功率控制方法应用于联邦学习安全机制系统,联邦学习安全机制系统包括K个用户、1个边缘服务器、S个OFDM符号、R个活动子载波;每个用户均与中心服务器相连接;设定所有用户的训练数据均为多标签数据,且来自于同一个特征空间,标签的总数为L;对任意的用户,其每一个本地数据点都拥有相同种类的标签;在第k个用户上的经标记数据样本的局部数据用D
k
表示,并且有(x
l
,y
l
)∈D
k
,x
l
、y
l
分别是指数据样本和对应的标签,且所有用户的局部数据之和为D,即满足:3.根据权利要求1所述的一种对抗联邦学习中多用户参数有偏聚合的动态功率控制方法,其特征在于,步骤(1)中,对抗参数有偏聚合的联邦学习系统模型包括发射端网络、无线信道和接收端网络,所述发射端网络包括1比特量化器、本地用户参数更新部分以及用户动态功率控制块;所述接收端网络包括非相干能量检测器;1比特量化器简化取局部梯度参数的符号;本地用户参数更新部分用于实现本地的联邦学习系统模型更新的训练过程;用户动态功率控制块根据每个用户对于联邦学习系统模型收敛的贡献程度动态地控制发射功率,抵消在无线信道中参数聚合的偏差;非相干能量检测器利用干扰进行聚合,并比较两个不同子载波上的能量以检测所有用户的聚合值,更加高效的实现接收端网络的数据恢复。4.根据权利要求1所述的一种对抗联邦学习中多用户参数有偏聚合的动态功率控制方法,其特征在于,步骤(2)中,定义的学习目标是最小化一个经验损失函数,目标函数如式(I)所示:式(I)中,F(w)表示全局的平均训练损失,学习过程的目标是最小化全局损失函数;w是联邦学习系统模型参数向量,q是向量参数的数量,w
q
是联邦学习系统模型参数向量的的单个元素;f(w,x,y)是样本损失函数;联邦学习的框架用于以分布式方式最小化F(w),利用全批次梯度下降,获得局部最优点:w
(n+1)
=w
(n)
‑
δg
(n)
ꢀꢀꢀꢀ
(II)式(II)中,δ是学习率,w
(n)
是第n轮通信的联邦学习系统模型参数向量,第k个用户收到
由中央服务器广播的模型参数w
(n)
之后,每个用户节点根据其拥有的本地数据以及对应的标签,计算出相应的本地的训练损失及对应的梯度,得到计算的梯度g
(n)
如式(III):式(III)中,向量g
(n)
的第i个元素是F(w
(n)
)相对于的梯度;对于n轮通信循环,第k个用户首先计算局部随机梯度如式(IV):式(IV)中,是从本地用户的数据集中选择的数据批次,作为批次大小,用于计算局部梯度估计值;F
k
(w
(n)
)表示第k个用户的本地平均训练损失;f(w
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。