【技术实现步骤摘要】
Loss去减弱不平衡带来的影响。但是这个方法的性能随着数据异构程度的加深而急剧下降。
技术实现思路
[0008]为解决现有技术的不足,实现在满足用户隐私保护、数据安全的同时,提升联邦学习下模型性能,从而提高图像识别效率的目的,本专利技术采用如下的技术方案:
[0009]一种面向长尾异构数据的联邦学习方法,包括如下步骤:
[0010]S1,服务器端随机初始化全局模型w,并将模型参数下发至各个客户端,各个客户端利用收到的模型参数进行本地模型更新,并将更新后的本地模型参数上传至服务器端;
[0011]S2,服务器端对收到的本地模型参数后进行聚合,得到教师模型和学生模型;
[0012]S3,服务器端对教师模型进行校准,使教师模型在无偏知识上进行学习,以此教出好的学生模型;
[0013]S4,通过知识蒸馏,将教师模型的无偏知识传递给学生模型,随后将学生模型下发至各个客户端开始下一轮联邦训练。
[0014]进一步地,步骤S1中,服务器端初始化全局模型参数w,随机选择参与本轮训练的客户端集合S,并将模型参数广播给参与本轮训练的客户端集合S,S中的每个客户端,均利用收到的全局模型参数w和本地的数据,执行随机梯度下降(SGD),以更新本地模型,客户端k更新得到的本地模型参数为w
k
,待更新之后,各个客户端将其更新的模型参数发还给服务器端。
[0015]进一步地,步骤S2包括如下步骤:
[0016]S21,服务器端对本地模型参数进行平均加权,得到学生模型,计算公式如下:
[ ...
【技术保护点】
【技术特征摘要】 【专利技术属性】
1.一种面向长尾异构数据的联邦学习方法,其特征在于包括如下步骤:S1,服务器端随机初始化全局模型w,并将模型参数下发至客户端,客户端利用收到的模型参数进行本地模型更新,并将更新后的本地模型参数上传至服务器端;S2,服务器端对本地模型参数进行聚合,得到教师模型和学生模型;S3,服务器端对教师模型进行校准,使教师模型在无偏知识上进行学习;S4,通过知识蒸馏,将教师模型的无偏知识传递给学生模型,随后将学生模型下发至客户端开始下一轮联邦训练。2.根据权利要求1所述的一种面向长尾异构数据的联邦学习方法,其特征在于所述步骤S1中,服务器端初始化全局模型参数w,随机选择参与本轮训练的客户端集合S,并将模型参数广播给参与本轮训练的客户端集合S,S中的客户端,利用收到的全局模型参数w和本地的数据,执行随机梯度下降,以更新本地模型,客户端k更新得到的本地模型参数为w
k
,待更新之后,客户端将其更新的模型参数发还给服务器端。3.根据权利要求2所述的一种面向长尾异构数据的联邦学习方法,其特征在于所述步骤S2包括如下步骤:S21,服务器端对本地模型参数进行平均加权,得到学生模型,计算公式如下:φ
s
(x)=φ
w
(x)
ꢀꢀꢀꢀꢀꢀꢀ
(公式2)其中,|D
k
|表示第k个客户端拥有的数据量,|D|表示所有客户端拥有的数据总量,K表示客户端数量,x表示输入数据,φ
w
(
·
)表示联邦平均模型的网络,φ
s
(
·
)表示学生模型的网络。S22,服务器端对本地模型参数进行加权聚合,得到教师模型,计算公式如下:其中,φ
t
(
·
)表示教师模型的网络,e
k
表示客户端k的权重,表示第k个客户端的网络。4.根据权利要求3所述的一种面向长尾异构数据的联邦学习方法,其特征在于所述步骤S3中,提出基于客户端的权重分配策略,以此来计算每个客户端本地模型的权重e
k
,最后将e
k
归一化使其总和等于1,即为最终权重,权重e
k
的计算公式如下:其中,a
e
∈R
c
和b
e
表示可被学习的网络参数,R
c
表示c维向量,T为转置符号,根据模型的原始输出对本地模型计算权重,再将权重乘回原始输出。5.根据权利要求4所述的一种面向长尾异构数据的联邦学习方法,其特征在于所述步骤S3中,提出基于类的原始输出校准策略,校准后的模型输出为z
cl
,计算公式如下:z
cl
=a
z
⊙
φ
t
(x)+b
z
ꢀꢀꢀꢀꢀꢀꢀ
(公式5)其中,a
z
和b
z
技术研发人员:卢杨,尚心怡,黄刚,华炜,王菡子,
申请(专利权)人:厦门大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。