当前位置: 首页 > 专利查询>浙江大学专利>正文

一种支持异构模型的自适应个性化联邦学习方法技术

技术编号:35409454 阅读:15 留言:0更新日期:2022-11-03 11:05
本发明专利技术公开了一种支持异构模型的自适应个性化联邦学习方法,该方法在支持联邦学习的各个参与者使用结构不同的模型的基础上,通过学习用于模型集成的动态权重和在训练模型参数的过程中引入针对模型集成的优化目标,实现高准确性的数据异构自适应的个性化联邦学习,能够在不同程度的数据异构的场景下使参与方从联邦学习中获益。本发明专利技术自适应个性化联邦学习方法无需引入新的超参数,可以便捷地部署在现有联邦学习系统中;相较于传统的个性化联邦学习方法,本发明专利技术具有更强的适应性。本发明专利技术具有更强的适应性。本发明专利技术具有更强的适应性。

【技术实现步骤摘要】
一种支持异构模型的自适应个性化联邦学习方法


[0001]本专利技术属于人工智能
,具体涉及一种支持异构模型的自适应个性化联邦学习方法。

技术介绍

[0002]人工智能已成为带动社会经济发展的重要技术之一,深度融入到人们生活的各个角落。随着以深度学习为代表的人工智能核心技术不断取得全新突破,人工智能技术逐步依赖于大量的数据进行模型训练,但这带来了个人隐私数据被过度收集和使用的问题,致使人们对数据隐私的认知和担忧也在不断增长。数据监管政策的出台以及相关监管技术的涌现推动了隐私保护的人工智能技术的发展,促进了联邦学习(federated learning)这一在保护数据隐私的前提下协同多个参与者训练机器学习模型的计算范式的进步。
[0003]然而,现有的联邦学习方法面临数据异构和模型异构两个问题;一方面,分布在各个参与设备上的训练数据的非独立同分布特性(non

independent and identical distributed,non

IID)将严重制约联邦学习的有效性,许多研究表明,传统的联邦平均方法在各个参与者的持有的数据的分布不同的情况下收敛较慢,甚至不收敛。尽管许多研究者针对联邦学习的面临数据异构问题提出了多种个性化联邦学习方法,例如基于正则化(regularization)、本地调优(tuning)、模型插值(model interpolation)和多任务学习(multi

task learning)等,然而这些方法仅适用于某些数据异构程度的场景。实际运行中,由于训练数据广泛分布在各个参与设备上,数据异构程度通常不可知,故难以针对性地选用合适的个性化联邦学习方法,这催生了对自适应的个性化联邦学习技术的需求。另一方面,现有的个性化联邦学习方法更多面向的是模型同构的场景,即各个参与者需要使用结构相同的模型,而在联邦学习的各个参与者来自不同的商业组织的情况下,各个参与者可能倾向于使用更适合自己业务数据的模型,而模型结构可能是各商业组织的机密。因此,使能差异化的模型结构的联邦学习方法能够更进一步地保护参与者的隐私,提供更高程度的个性化。
[0004]深度互学习技术(Deep Mutual Learning)提供了基于相同的数据,同时训练两个不同的模型的技术基础,在此基础上有研究者提出了联邦互学习(Federated Mutual Learning)方法,联邦学习的参与者同时训练私有模型和全局共享模型,其中私有模型保留在本地,其模型结构和参数均不共享,而全局共享模型的结构和参数在各个参与者上是保持一致的,由中心服务器负责周期性地聚合和下发,作为各个参与者知识共享的媒介。
[0005]在联邦学习系统中,每个参与者都持有私有模型和全局共享模型两个不同的模型。为了提高模型准确性,一种简单的做法是直接将两个模型的输出预测取平均,将平均后的预测结果作为最终的结果,然而两个模型在不同数据上的表现具有一定的差异性:在数据高度异构的情况下,私有模型很好地学习了对应的参与者的私有数据集的分布,从而在对应的参与者的私有数据集上具有较好的准确度,而全局共享模型受到数据异构的影响,准确性通常较差。在数据趋于同构的情况下,全局共享模型得益于多个参与者的知识共享,
具有较好的准确性,而私有模型主要依赖于对应参与者的知识,在这种情况下准确性较差,直接集成两个模型将使得集成的准确性受到准确度低的模型的严重影响。

技术实现思路

[0006]鉴于上述,本专利技术提供了一种支持异构模型的自适应个性化联邦学习方法,以在参与者的私有模型结构和参数不可知的情况下,开展自适应的个性化联邦学习,在不同数据异构程度的场景下均能使参与者从联邦学习中获益。
[0007]一种支持异构模型的自适应个性化联邦学习方法,包括如下步骤:
[0008](1)由中心服务器初始化全局共享模型的参数;
[0009](2)中心服务器将全局共享模型参数下发给联邦学习的各个参与者,参与者收到全局共享模型参数后,利用参数更新自己持有的全局共享模型;
[0010](3)参与者进行自适应力学习以更新私有模型的权重;
[0011](4)参与者利用新获得的私有训练数据基于随机梯度下降算法同时训练私有模型和全局共享模型;
[0012](5)参与者将经过一轮迭代训练后的全局共享模型参数上传给中心服务器;
[0013](6)中心服务器收集到足够多的全局共享模型参数后对这些模型参数进行聚合,得到新的全局共享模型参数,进而返回执行步骤(2)将新的全局共享模型参数下发给各个参与者,依此循环直至所有模型的损失函数收敛或达到最大迭代次数。
[0014]进一步地,所述全局共享模型由联邦学习的参与者负责训练,中心服务器负责聚合,各参与者均持有一份全局共享模型的拷贝,该模型一方面在联邦学习训练完成后供各参与者推理时使用,另一方面则作为各参与者共享知识的媒介。
[0015]进一步地,所述私有模型为联邦学习的参与者各自持有的且结构和参数均不公开的模型,各参与者持有的私有模型结构不尽相同。
[0016]进一步地,所述参与者为联邦学习系统中的终端设备,其为了从联邦学习系统中获利即获得更高准确度的模型参数,向中心服务器上传模型参数并从中心服务器上下载聚合后的模型参数。
[0017]进一步地,所述步骤(3)的具体实现方式为:参与者首先从获得的私有训练数据中划分出一小部分(例如5%的训练数据)作为验证集,将私有模型和全局共享模型在验证集上进行推理,得到私有模型的预测输出结果p
pri
和全局共享模型的预测输出结果p
sha
;随后参与者通过随机梯度下降法更新私有模型的权重,更新表达式如下:
[0018][0019]其中:λ
i
为更新前私有模型的权重,λ

i
为更新后私有模型的权重,η表示学习率,表示L
CE
(p
aen
,y)对λ
i
求梯度,L
CE
(p
aen
,y)表示p
aen
与y的交叉熵,p
aen
表示p
pri
与p
sha
加权平均后的结果,y为真值标签。
[0020]进一步地,所述步骤(4)中对私有模型训练采用的损失函数表达式如下:
[0021]L
pri
=L
CE
(p
pri
,y)+D
KL
(p
pri
||p
sha
)+L
CE
(p
aen
,y)
[0022]其中:L
pri
为私有模型的损失函数,L
CE
(p
pri
,y)表示p
pri
与y的交叉熵,L
CE
(p
本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种支持异构模型的自适应个性化联邦学习方法,包括如下步骤:(1)由中心服务器初始化全局共享模型的参数;(2)中心服务器将全局共享模型参数下发给联邦学习的各个参与者,参与者收到全局共享模型参数后,利用参数更新自己持有的全局共享模型;(3)参与者进行自适应力学习以更新私有模型的权重;(4)参与者利用新获得的私有训练数据基于随机梯度下降算法同时训练私有模型和全局共享模型;(5)参与者将经过一轮迭代训练后的全局共享模型参数上传给中心服务器;(6)中心服务器收集到足够多的全局共享模型参数后对这些模型参数进行聚合,得到新的全局共享模型参数,进而返回执行步骤(2)将新的全局共享模型参数下发给各个参与者,依此循环直至所有模型的损失函数收敛或达到最大迭代次数。2.根据权利要求1所述的自适应个性化联邦学习方法,其特征在于:所述全局共享模型由联邦学习的参与者负责训练,中心服务器负责聚合,各参与者均持有一份全局共享模型的拷贝,该模型一方面在联邦学习训练完成后供各参与者推理时使用,另一方面则作为各参与者共享知识的媒介。3.根据权利要求1所述的自适应个性化联邦学习方法,其特征在于:所述私有模型为联邦学习的参与者各自持有的且结构和参数均不公开的模型,各参与者持有的私有模型结构不尽相同。4.根据权利要求1所述的自适应个性化联邦学习方法,其特征在于:所述参与者为联邦学习系统中的终端设备,其为了从联邦学习系统中获利即获得更高准确度的模型参数,向中心服务器上传模型参数并从中心服务器上下载聚合后的模型参数。5.根据权利要求1所述的自适应个性化联邦学习方法,其特征在于:所述步骤(3)的具体实现方式为:参与者首先从获得的私有训练数据中划分出一小部分作为验证集,将私有模型和全局共享模型在验证集上进行推理,得到私有模型的预测输出结果p
pri
和全局共享模型的预测输出结果p
sha
;随后参与者通过随机梯度下降法更新私有模型的权重,更新表达式如下:其中:λ
i
为更新前私有模型的权重,λ
i

为更新后私有模型的权重,η表示学习率,表示L
CE
(p
aen
,y)对λ
i
求梯度,L
CE
(p
aen
,y)表示p
aen
与y的交叉熵,p
aen
表示p
pri
与p
sha
加权平均后的结果,y为真值标签。6.根据权利要求1所述的自适应个性化联邦学习方法,其特征在于:所述步骤(4)中对私有模型训练采用的损失函数表达式如下:L
pri
=L
CE
(p
pri
,y)+D
...

【专利技术属性】
技术研发人员:邓水光秦臻
申请(专利权)人:浙江大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1