当前位置: 首页 > 专利查询>清华大学专利>正文

联邦学习优化方法、装置、电子设备及存储介质制造方法及图纸

技术编号:36379705 阅读:13 留言:0更新日期:2023-01-18 09:41
本发明专利技术提供一种联邦学习优化方法、装置、电子设备及存储介质,其中,所述方法包括:在当前轮次的联邦学习中,获取并下发上一轮次全局模型、上一轮次全局梯度估计和上一轮次二阶信息估计矩阵至多个客户端;接收并基于客户端上传的本地梯度和本地模型得到第一次更新后全局梯度估计和第一次更新后全局模型;将第一次更新后全局模型和第一次更新后全局梯度估计下发至客户端;接收并基于客户端上传的更新后本地梯度和更新后本地模型得到第二次更新后全局梯度估计和第二次更新后全局模型,并将第二次更新后全局模型和第二次更新后全局梯度估计下发至客户端,用于下一轮次的联邦学习。通过本发明专利技术提高了联邦优化算法的收敛速度。通过本发明专利技术提高了联邦优化算法的收敛速度。通过本发明专利技术提高了联邦优化算法的收敛速度。

【技术实现步骤摘要】
联邦学习优化方法、装置、电子设备及存储介质


[0001]本专利技术涉及人工智能
,尤其涉及一种联邦学习优化方法、装置、电子设备及存储介质。

技术介绍

[0002]联邦学习可实现在数据分布于多个客户端且不共享的情况下,联合分散的客户端建立全局预测模型。在保障各客户端数据始终存储于本地的情况下,联邦学习有效聚合各客户端的信息,打破“数据孤岛”,从而达到海量数据的精准模型效果。
[0003]相关技术可知,联邦学习的核心技术为联邦优化算法,其本质是一种在联邦学习场景下的分布式优化算法。然而,当前联邦学习场景通常存在数据异构性和部分客户端参与等问题,这将导致联邦优化算法性能损失。
[0004]在联邦优化中,多次局部更新迭代导致每个参与的客户端达到与局部损失函数对应的最优值,其偏离了对应全局损失函数的最优值,从而阻碍了收敛。因此,当前需要一种快速收敛的联邦优化算法将联邦学习应用到实际场景中来实现完整的算法学习过程。

技术实现思路

[0005]本专利技术提供一种联邦学习优化方法、装置、电子设备及存储介质,用以解决现有技术中联邦优化算法无法快速收敛的缺陷,提高了联邦优化算法的收敛速度,从而降低系统的通信代价。
[0006]本专利技术提供一种联邦学习优化方法,所述方法应用于服务器端,所述方法包括:在当前轮次的联邦学习中,获取上一轮次全局模型、上一轮次全局梯度估计和上一轮次二阶信息估计矩阵,并将所述上一轮次全局模型、所述上一轮次全局梯度估计和所述上一轮次二阶信息估计矩阵下发至多个客户端;接收所述客户端上传的本地梯度和本地模型,其中,所述本地模型基于所述上一轮次全局梯度估计和所述上一轮次二阶信息估计矩阵的逆矩阵更新得到,所述本地梯度基于所述上一轮次全局模型计算得到;分别基于所述本地梯度和所述本地模型对所述上一轮次全局梯度估计和所述上一轮次全局模型进行更新,得到第一次更新后全局梯度估计和第一次更新后全局模型;将所述第一次更新后全局模型和所述第一次更新后全局梯度估计下发至所述客户端;接收所述客户端上传的更新后本地梯度和更新后本地模型,其中,所述更新后本地模型基于所述第一次更新后全局梯度估计和所述上一轮次二阶信息估计矩阵的逆矩阵更新得到,所述更新后本地梯度基于所述第一次更新后全局模型计算得到;分别基于所述更新后本地梯度和所述更新后本地模型对所述第一次更新后全局梯度估计和所述第一次更新后全局模型进行更新,得到第二次更新后全局梯度估计和第二次更新后全局模型,并将所述第二次更新后全局模型和所述第二次更新后全局梯度估计下发至所述客户端,用于下一轮次的联邦学习。
[0007]根据本专利技术提供的一种联邦学习优化方法,在将所述第二次更新后全局模型和所述第二次更新后全局梯度估计下发至所述客户端之后,所述方法还包括:基于所述第二次
更新后全局梯度估计和所述第一次更新后全局梯度估计的第一差值,以及所述第二次更新后全局模型和所述第一次更新后全局模型的第二差值,对所述上一轮次二阶信息估计矩阵进行更新,得到当前轮次二阶信息估计矩阵以及所述当前轮次二阶信息估计矩阵的逆矩阵;将所述当前轮次二阶信息估计矩阵的逆矩阵作为下一轮次联邦学习中的上一轮次二阶信息估计矩阵的逆矩阵。
[0008]根据本专利技术提供的一种联邦学习优化方法,所述基于所述本地梯度对所述上一轮次全局梯度估计进行更新,得到第一次更新后全局梯度估计,包括:基于所述本地梯度得到所述本地梯度的无偏估计;基于所述本地梯度的无偏估计,确定所述上一轮次全局梯度估计在所述客户端的更新估计;基于所述更新估计,得到所述第一次更新后全局梯度估计。
[0009]根据本专利技术提供的一种联邦学习优化方法,所述基于所述更新后本地梯度对所述第一次更新后全局梯度估计进行更新,得到第二次更新后全局梯度估计采用以下公式确定:
[0010][0011]其中,φ
+
表示所述第二次更新后全局梯度估计;N表示所述客户端的数量;表示所述更新后本地梯度;φ
i
表示所述本地梯度;表示客户端i的本地损失函数的梯度;表示本轮参与更新的客户端集合;x
r
表示所述上一轮次全局模型;r表示轮次;x表示全局模型。
[0012]根据本专利技术提供的一种联邦学习优化方法,在所述将所述当前轮次二阶信息估计矩阵的逆矩阵作为下一轮次联邦学习中的上一轮次二阶信息估计矩阵的逆矩阵之前,所述方法还包括:对所述第一差值进行正则化处理,得到正则化处理后第一差值;基于所述正则化处理后第一差值和所述第二差值,得到当前轮次二阶信息估计矩阵的逆矩阵。
[0013]根据本专利技术提供的一种联邦学习优化方法,所述对所述第一差值进行正则化处理,得到正则化处理后第一差值采用以下公式确定:
[0014][0015]其中,表示所述正则化处理后第一差值;表示所述第一差值;表示所述第二差值;δ和γ为正实数并满足0.8δ>γ,采用如下公式确定:
[0016][0017]采用以下公式确定:
[0018][0019]β表示预设正常数,β表示的下界,即τ
j
>β。
[0020]根据本专利技术提供的一种联邦学习优化方法,在将所述第二次更新后全局模型和所述第二次更新后全局梯度估计下发至所述客户端之后,所述方法还包括:基于所述第二次更新后全局梯度估计和所述第一次更新后全局梯度估计的第一差值,以及所述第二次更新后全局模型和所述第一次更新后全局模型的第二差值,得到对角化二阶信息估计矩阵,并将所述对角化二阶信息估计矩阵作为当前轮次二阶信息估计矩阵,以实现对所述当前轮次二阶信息估计矩阵的稀疏化处理;将所述对角化二阶信息估计矩阵的逆矩阵作为下一轮次联邦学习中的上一轮次二阶信息估计矩阵的逆矩阵。
[0021]根据本专利技术提供的一种联邦学习优化方法,所述基于所述第二次更新后全局梯度估计和所述第一次更新后全局梯度估计的第一差值,以及所述第二次更新后全局模型和所述第一次更新后全局模型的第二差值,得到对角化二阶信息估计矩阵采用以下公式确定:
[0022][0023]其中,表示所述对角化二阶信息估计矩阵;表示上一轮次的对角化二阶信息估计矩阵;表示所述第一差值;表示所述第二差值。
[0024]本专利技术还提供一种联邦学习优化方法,所述方法应用于客户端,所述方法包括:在当前轮次的联邦学习中,获取服务器端下发的上一轮次全局模型、上一轮次全局梯度估计和上一轮次二阶信息估计矩阵;基于所述上一轮次全局梯度估计和所述上一轮次二阶信息估计矩阵的逆矩阵更新得到本地模型,以及基于所述上一轮次全局模型计算得到本地梯度;将所述本地模型和所述本地梯度发送至所述服务器端;接收所述服务器端下发的第一次更新后全局模型和第一次更新后全局梯度估计,其中,所述第一次更新后全局模型和所述第一次更新后全局梯度估计分别基于所述本地模型和所述本地梯度得到;基于所述第一次更新后全局梯度估计和所述上一轮次二阶信息估计矩阵的逆矩阵更新得到更新后本地模型,以及基于所述第一次更新后全局模型计算得到更新后本地梯度;将所述更新本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种联邦学习优化方法,其特征在于,所述方法应用于服务器端,所述方法包括:在当前轮次的联邦学习中,获取上一轮次全局模型、上一轮次全局梯度估计和上一轮次二阶信息估计矩阵,并将所述上一轮次全局模型、所述上一轮次全局梯度估计和所述上一轮次二阶信息估计矩阵下发至多个客户端;接收所述客户端上传的本地梯度和本地模型,其中,所述本地模型基于所述上一轮次全局梯度估计和所述上一轮次二阶信息估计矩阵的逆矩阵更新得到,所述本地梯度基于所述上一轮次全局模型计算得到;分别基于所述本地梯度和所述本地模型对所述上一轮次全局梯度估计和所述上一轮次全局模型进行更新,得到第一次更新后全局梯度估计和第一次更新后全局模型;将所述第一次更新后全局模型和所述第一次更新后全局梯度估计下发至所述客户端;接收所述客户端上传的更新后本地梯度和更新后本地模型,其中,所述更新后本地模型基于所述第一次更新后全局梯度估计和所述上一轮次二阶信息估计矩阵的逆矩阵更新得到,所述更新后本地梯度基于所述第一次更新后全局模型计算得到;分别基于所述更新后本地梯度和所述更新后本地模型对所述第一次更新后全局梯度估计和所述第一次更新后全局模型进行更新,得到第二次更新后全局梯度估计和第二次更新后全局模型,并将所述第二次更新后全局模型和所述第二次更新后全局梯度估计下发至所述客户端,用于下一轮次的联邦学习。2.根据权利要求1所述的联邦学习优化方法,其特征在于,在将所述第二次更新后全局模型和所述第二次更新后全局梯度估计下发至所述客户端之后,所述方法还包括:基于所述第二次更新后全局梯度估计和所述第一次更新后全局梯度估计的第一差值,以及所述第二次更新后全局模型和所述第一次更新后全局模型的第二差值,对所述上一轮次二阶信息估计矩阵进行更新,得到当前轮次二阶信息估计矩阵以及所述当前轮次二阶信息估计矩阵的逆矩阵;将所述当前轮次二阶信息估计矩阵的逆矩阵作为下一轮次联邦学习中的上一轮次二阶信息估计矩阵的逆矩阵。3.根据权利要求1所述的联邦学习优化方法,其特征在于,所述基于所述本地梯度对所述上一轮次全局梯度估计进行更新,得到第一次更新后全局梯度估计,包括:基于所述本地梯度得到所述本地梯度的无偏估计;基于所述本地梯度的无偏估计,确定所述上一轮次全局梯度估计在所述客户端的更新估计;基于所述更新估计,得到所述第一次更新后全局梯度估计。4.根据权利要求3所述的联邦学习优化方法,其特征在于,所述基于所述更新后本地梯度对所述第一次更新后全局梯度估计进行更新,得到第二次更新后全局梯度估计采用以下公式确定:其中其中,φ
+
表示所述第二次更新后全局梯度估计;N表示所述客户端的数量;表示所述
更新后本地梯度;φ
i
表示所述本地梯度;表示客户端i的本地损失函数的梯度;表示本轮参与更新的客户端集合;x
r
表示所述上一轮次全局模型;r表示轮次;x表示全局模型。5.根据权利要求2所述的联邦学习优化方法,其特征在于,在所述将所述当前轮次二阶信息估计矩阵的逆矩阵作为下一轮次联邦学习中的上一轮次二阶信息估计矩阵的逆矩阵之前,所述方法还包括:对所述第一差值进行正则化处理,得到正则化处理后第一差值;基于所述正则化处理后第一差值和所述第二差值,得到当前轮次二阶信息估计矩阵的逆矩阵。6.根据权利要求5所述的联邦学习优化方法,其特征在于,所述对所述第一差值进行正则化处理,得到正则化处理后第一差值采用以下公式确定:其中,表示所述正则化处理后第一差值;表示所述第一差值;表示所述第二差值;δ和γ为正实数并满足0.8δ>γ,采用如下公式确定:采用如下公式确定:采用以下公式确定:β表示预设正常数,β表示的下界,即τ
j
>β。7.根据权利要求1所述的联邦学习优化方法,其特征在于,在将所述第二次更新后全局模型和所述第二次更新后全局梯度估计下发至所述客户端之后,所述方法还包括:基于所述第二次更新后全局梯度估计和所述第一次更新后全局梯度估计的第一差值,以及所述第二次更新后全局模型和所述第一次更新后全局模型的第二差值,得到对角化二阶信息估计矩阵,并将所述对角化二阶信息估计矩阵作为当前轮次二阶信息估计矩阵,以实现对所述当前轮次二阶信息估计矩阵的稀疏化处理;将所述对角化二阶信息估计矩阵的逆矩阵作为下一轮次联邦学习中的上一轮次二阶信息估计矩阵的逆矩阵。8.根据权利要求7所述的联邦学习优化方法,其特征在于,所述基于所述第二次更新后全局梯度估计和所述第一次更新后全局梯度估计的第一差值,以及所述第二次更新后全局
模型和所述第一次更新后...

【专利技术属性】
技术研发人员:陈辉铭李勇金德鹏
申请(专利权)人:清华大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1