一种针对数据异构性的个性化联邦元学习方法技术

技术编号:33125284 阅读:39 留言:0更新日期:2022-04-17 00:33
本发明专利技术公开了一种针对数据异构性的个性化联邦元学习方法,包括以下步骤:确定各个客户端初始化阶段时的自动编码器结构以及个性化阶段时的元模型结构;初始化联邦训练阶段的参数;根据客户端上传的本地数据分布向量对客户端进行分组;对每个组内的客户端模型进行聚合并下发给组内的客户端进行下一轮迭代;联邦训练结束后,客户端在其组内元模型及其本地数据上进行微调产生个性化模型。本发明专利技术在客户端参与联邦训练时,依据其每一轮上传的本地数据分布向量,动态将数据分布近似的客户端划分到同一组中并为每一组设置对应的元模型,进而缓解在数据高度异构的环境下引起的模型收敛慢且准确率低的问题。且准确率低的问题。且准确率低的问题。

【技术实现步骤摘要】
一种针对数据异构性的个性化联邦元学习方法


[0001]本专利技术涉及数据异构下分布式机器学习的研究领域,特别涉及一种针对数据异构性的个性化联邦元学习方法。

技术介绍

[0002]现代社会中边缘设备的普及,如移动电话和可穿戴设备,导致了人们产生的分布式私人数据的快速增长。虽然这些丰富的数据为机器学习应用提供了巨大的机会,但随着《通用数据保护条例》(GDPR)和《健康保险隐私及责任法案》(HIPAA)等法规的出台,社会上对数据隐私的关注度越来越高。这使得联邦学习越来越受欢迎,这是一个新的分布式机器学习范式,它能够以合作和隐私保护的方式在数据孤岛上开发和训练机器学习模型。个人用户参与联邦学习的主要动机是利用联邦学习中其他用户的共享知识库。因为单一用户通常面临着数据层面的限制,如数据稀缺、低质量数据和未见过的标签类,这些都限制了他们训练性能良好的本地模型的能力。
[0003]联邦学习是一个框架,它让被称为客户端的多个用户能够在他们的联邦数据上协作训练一个共享的全局模型,而无需将数据从他们的本地设备上移动。一个中央服务器协调联邦学习的整个过程,这个过程是多轮的。在每一轮开始时,服务器将当前的全局模型发送给参与的客户端。每个客户端在其本地数据上训练模型,并将模型更新传回服务器。服务器从所有客户端收集这些更新,并对全局模型进行一次更新,进而结束这一轮。通过消除在单一设备上汇总所有数据的需求,联邦学习克服了上述的隐私问题。由于客户端参与联邦学习的主要动机是获得更好的模型,因此对于那些没有足够的私有数据来开发准确的本地模型的客户端,将从联邦学习的模型中获益最大。然而对于那些有足够私有数据来训练准确的本地模型的客户端来说,参与联邦学习的好处是有争议的,因为共享的全局模型的准确度可能低于他们本地训练的局部模型。此外,对于很多应用来说,数据在客户端上的分布是高度非独立同分布(Non

IID)的。这种统计上的异构使得联邦学习很难训练出一个对所有客户端都能很好地工作的单一模型。
[0004]虽然联邦学习最初的目标是寻找一个可以部署在每个客户端上的单一全局模型,但是由于客户端的数据分布在不同设备之间可能存在很大差异,单个模型可能无法同时为所有客户端服务。因此,数据的异构性成为寻找高效的联邦学习模型的主要挑战之一。一些个性化联邦学习方法被提出来以处理数据异构性,其中有的使用不同的本地模型来拟合客户端特定的本地数据,但也可以从其他设备的数据中提取公共知识。为了应对数据的统计异构性所带来的挑战,对全局模型进行个性化是很有必要的。例如在客户端上运行下一词预测任务,对于句子“我生活在
……”
的下一词预测,显然不同区域的用户会输出不同的答案,因此模型需要为每个用户预测不同的答案。大多数个性化技术通常包括两个离散的步骤。第一步是以协作的方式建立一个全局模型。在第二步中,使用客户端的私有数据为每个客户端建立个性化模型。通常来说,单纯地针对全局准确性进行优化,会产生难以个性化的模式。为了使个性化联邦学习在实践中发挥作用,以下三个目标必须同时而不是独立地解
决:(1)开发改进的个性化模型,使绝大多数客户端受益;(2)开发精确的全局模型,使本地数据有限的客户端从中受益;(3)能够在较低的训练轮次中实现模型的快速收敛。
[0005]在最近几年里,个性化联邦学习已经成为应对联合学习中非独立同分布数据这一统计挑战的最有希望的方法之一,并吸引了越来越多的关注。Jiang等人(Yihan Jiang,JakubKeith Rush,and Sreeram Kannan.2019.Improving Federated Learning Personalization Via Model Agnostic Meta Learning.arXiv preprint arXiv:1909.12488.)探讨了MAML算法(Chelsea Finn,Pieter Abbeel,and Sergey Levine.2017.Model

Agnostic Meta

Learning For Fast Adaptation Of Deep Networks.In ICML,1126

1135.)和联邦学习之间的联系。他们将MAML的全局元模型视为联邦学习的全局模型,并将任务视为客户端的局部模型。他们还表明,现有的基于优化的元学习算法(如MAML)可以被整合到联邦学习中,以实现个性化。在文献(Alireza Fallah,Aryan Mokhtari,and Asuman E.Ozdaglar.2020.Personalized Federated Learning With Theoretical Guarantees:A model

agnostic meta

learning approach.In NeurIPS.)中,作者提出了Per

FedAvg,一个基于MAML的联邦平均算法的个性化版本,通过在客户的本地数据上训练一个好的初始全局模型来定制个性化的模型。与MAML类型的方法相比,Khodak等人(Mikhail Khodak,Maria

Florina Balcan,and Ameet S.Talwalkar.2019.Adaptive GradientBased Meta

Learning Methods.In NeurIPS,5915

5926.)提出了ARUBA,一种用于自适应元学习的在线学习算法,并表明它改善了联邦平均算法的性能。
[0006]尽管这些个性化联邦学习方法与传统的联邦学习方法相比,有着更好的性能(尤其是准确性的比较),目前的技术中依旧忽略了客户端数据的统计学异构性这一潜在缺陷。如果特征空间对每一个本地数据分布都有很大的多样性,那么个性化的模型就可能存在多种泛化方向。在这种情况下,如果只依靠一个全局模型的指导,由于泛化的负迁移,很容易降低个性化模型的整体性能。为了应对这一情况,本专利技术通过为具有不同泛化方向的客户端提供不同的全局模型来缓解这一情况所带来的负迁移问题。

技术实现思路

[0007]针对现有技术存在的缺陷,本专利技术能够提供一种针对数据异构性的个性化联邦元学习方法。通过在客户端正式参与联邦训练前,训练一个自编码器用以提供本地数据分布的向量,之后服务端根据这些客户端上传的数据分布向量将所有参与训练的客户端分成多个组,并在服务端中保持相应数量的泛化模型以分别指导个性化过程,从而解决了现有技术中所存在的上述问题。
[0008]本专利技术至少通过如下技术方案之一实现。
[0009]一种针对数据异构性的个性化联邦元学习方法,,包括以下步骤:
[0010]S1、确定各个客户端初始化阶段时的自动编码器结构以及个性化阶段时的元模型结构;
[0011]S2、进行初始化阶段以获得不同数据分布的中心点;
[0本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种针对数据异构性的个性化联邦元学习方法,其特征在于,包括以下步骤:S1、确定各个客户端初始化阶段时的自动编码器结构以及个性化阶段时的元模型结构;S2、进行初始化阶段以获得不同数据分布的中心点;S3、客户端参与联邦训练,根据每轮上传的数据分布向量将客户端划分为多个组;S4、对每个组内的客户端模型进行聚合并下发给组内的客户端进行下一轮迭代;S5、联邦训练结束后,客户端在其组内元模型及其本地数据上进行调整产生个性化模型。2.根据权利要求1所述一种针对数据异构性的个性化联邦元学习方法,其特征在于,客户端在参与联邦学习之前,需要从服务端下载统一的自动编码器以及元模型的模型结构;所述用以初始化阶段的自动编码器是神经网络的一种,用以提取客户端本地数据分布的统计特性,并以向量的形式进行表征;所述用以个性化阶段的元模型指的是元学习下的一种模型,能通过少量样本的训练来适应新任务的学习模型,用以适应客户端的本地数据生成个性化模型。3.根据权利要求1所述一种针对数据异构性的个性化联邦元学习方法,其特征在于,所述步骤S2中获取中心点,包括以下步骤:S201、令D
i
表示客户端的本地数据集,C
k
表示中心点,表示自动编码器的编码器部分;S202、每个客户端利用本地数据集D
i
训练自动编码器得到S203、每个客户端i使用编码器获得每个数据样本x∈D
i
的嵌入向量的嵌入向量之后将所有样本的嵌入向量进行平均得到本地数据分布向量之后将所有样本的嵌入向量进行平均得到本地数据分布向量并上传到服务端中;S204、服务端在收集到的客户端数据分布向量{H
i
}上运行K

means算法得到K个聚类中心点C
k
。4.根据权利要求1所述一种针对数据异构性的个性化联邦元学习方法,其特征在于,所述自动编码器的模型结构为堆栈自动编码器、卷积自动编码器、循环自动编码器的其中一种。5.根据权利要求1所述一种针对数据异构性的个性化联邦元学习方法,其特征在于,所述联邦训练遵循联邦平均算法,具体为:假设有N个客户端,每个客户端都有一个固定的本地数据集D
i
,在每轮的开始,服务端随机选择部分客户端,然后服务端将当前全局算法状态发送到每个客户端,每个客户端执行基于全局状态和本地数据集的本地计算,然后将更新后的全局状态发送到服务器,服务端将聚合这些更新后的全局状态以产生新的全局状态,并重复此过程;在联邦训练的框架下。6.根据权利要求1所述一种针对数据异构性的个性化联邦元学习方法,其特征在于,步骤S3包括以下步骤:S301、令φ
k
表示第k组中的元模型,θ
i
表示客户端的本地个性化模型,R表示总的通信轮次;每轮从参与联邦训练的所有客户端中选择|S|个客户端;客户端进行本地更新的次数为
T;本地数据集用D
i
表示,并且每个客户端拥有|D
i
|个数据样本x;对于客户端i,其本地数据集划分为两部分集划分为两部分用以客户端的训练,用以客户端的个性化;S302、服务端随机选择|S|个客户端,并将对应的元模型φ
k
发送到选择的客户端中;S303、客户端收到来自服务端的元模型φ
k
时,在元模型φ
k
和本地数据D
i
上进行本地更新,在本地第t∈T轮更新时,其更新的计算方式为:其中,表示的是元模型φ
k
在第r轮的通信回合,在客户端i上进行第t轮的本地更新;α表示本地模型的学习率;表示的是模型...

【专利技术属性】
技术研发人员:杨磊黄家明
申请(专利权)人:华南理工大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1