面向不稳定联邦学习场景的客户端选择优化方法及装置制造方法及图纸

技术编号:34393356 阅读:81 留言:0更新日期:2022-08-03 21:24
本发明专利技术公开了一种面向不稳定联邦学习场景的客户端选择优化方法及装置,方法包括下述步骤:分析不稳定联邦学习的不稳定因素,所述不稳定因素包括客户端集合、客户端本地数据和客户端本地训练状态;建模客户端集合、客户端本地数据和客户端本地训练状态对模型训练性能的影响;建模客户端选择问题,即建模不稳定客户端集合、不稳定客户端本地数据和不稳定客户端本地训练状态对客户端选择的影响;提出一种基于上界置信区间和贪婪选择的客户端选择方法,选择最优的客户端组合。本发明专利技术能够有效适应学习环境的不稳定性,同时加速模型的收敛速度、提升模型的训练效果。提升模型的训练效果。提升模型的训练效果。

【技术实现步骤摘要】
面向不稳定联邦学习场景的客户端选择优化方法及装置


[0001]本专利技术属于面向移动边缘计算和分布式学习的
,具体涉及一种面向不稳定联邦学习场景的客户端选择优化方法及装置。

技术介绍

[0002]随着大数据的发展,数据的重要性愈发突显,数据的隐私问题更是受到了广泛关注。例如,欧盟通过颁布通用数据保护条例来规范对移动用户的隐私侵犯行为。在数据安全愈发受到重视的今天,获取可靠和真实的训练数据成为了一项更具挑战性的任务。因此,面对这种安全性要求极高的背景,一种保护隐私的机器学习范式

联邦学习(Federated Learning,FL)应运而生。在FL中,客户端(例如手机、个人笔记本电脑等)保存的训练数据不需要离开数据源并上传到集中实体进行模型训练,仅需要利用本地数据在本地设备上训练完后将训练后的模型上传给服务器。将潜在的数据安全问题减少到最低限度,从而减少数据所有者对数据共享的抵触性。鉴于其数据安全性和可扩展性强的特性,联邦学习已被成功应用于智慧医疗,AI移动应用,智慧城市等领域。
[0003]相较于传统的分布式机器学习,联邦学习主要部署在网络边缘,是由边缘设备(如手机)承担训练和传输工作,而由于边缘设备的异构性和数据的异构性,不同设备的训练性能和训练结果可能存在巨大差距。因此客户端(参与节点)的选择问题已成为了目前工业界和学术界的广泛关注和重点研究的问题之一。虽然目前已有的研究结合客户端的选择有效提升了模型的训练性能,但其研究的场景都是基于固定的联邦学习场景,即所有的客户端、客户端的本地数据、客户端的训练状态都是稳定不变的。而在实际场景中,由于客户端的移动性、客户端资源的有限性、网络的不稳定性以及学习环境的动态性等原因,联邦学习所包含的客户端集合、客户端的本地数据以及客户端的训练状态在不同时刻都具有一定的差异性。因此考虑以上动态因素对客户端选择和模型训练性能的影响十分重要。

技术实现思路

[0004]本专利技术的主要目的在于克服现有技术的缺点与不足,提供一种面向不稳定联邦学习场景的客户端选择优化方法及装置,既能够减少模型训练时间又能够提升模型训练结果的动态客户端选择方法。
[0005]为了达到上述目的,本专利技术采用以下技术方案:
[0006]本专利技术一方面提供了一种面向不稳定联邦学习场景的客户端选择优化方法,包括下述步骤:
[0007]S1、分析不稳定联邦学习的不稳定因素,所述不稳定因素包括客户端集合、客户端本地数据和客户端本地训练状态;
[0008]S2、建模客户端集合、客户端本地数据和客户端本地训练状态对模型训练性能的影响;
[0009]S3、建模客户端选择问题,即建模不稳定客户端集合、不稳定客户端本地数据和不
稳定客户端本地训练状态对客户端选择的影响;
[0010]S4、提出一种基于上界置信区间和贪婪选择的客户端选择方法,选择最优的客户端组合,所述基于上界置信区间和贪婪选择的客户端选择方法,包括下述步骤:
[0011]S41、初始化:将目前所包含的客户端分为两个集合,K
e
表示本轮开始之前已经被选择过至少一次的客户端集合,K
ne
表示目前为止一次都没有被选择过的客户端集合,所述客户端集合包括新进入的客户端;
[0012]S42、判断客户端是否已被选择过,若客户端一次都没被选择过,则将客户端加入应选择的客户端集合中;若客户端已经被选择过了,则计算客户端的上界置信值并将上界置信值较高的客户端加入应选择的客户端集合中;
[0013]S43、服务器将模型发送给选择的客户端,被选择的客户端利用自己的本地数据训练模型并将训练完的模型发送给服务器,服务器对客户端上传的模型参数进行整合更新;
[0014]S44、判断是否达到结束训练的条件,如果达到结束条件则退出训练,反之,则从初始化开始重复上述操作。
[0015]作为优选的技术方案,步骤S2具体为:
[0016]将客户端集合、客户端本地数据和客户端本地训练状态对模型训练性能的影响建模为:
[0017][0018]其中,t∈τ=[1,...,T]表示执行第t次模型训练,T表示总的训练次数;At表示在第t轮训练中选择的客户端集合;K(t)表示在第t次训练时所有的客户端集合;表示客户端k在第t轮训练时权重所占的比例;E[
·
]表示期望;f(
·
)表示本地损失函数;表示客户端k在第t次训练时的本地数据集合;表示客户端k的数据分布;w
t
表示第t次训练时的全局模型参数;x
k,t
表示客户端的训练状态,若客户端成功完成本地训练x
k,t
=1,反之则为0;o1表示本地更新操作,在该过程中,应用标准的FedAvg和典型的随机梯度下降,具体的更新方式为注意,每轮的局部权重w
k,t
可能因为客户端本地训练失败而无法获得,且如果训练失败,客户端k的局部权重仍然是w
k,t
=w
k,t
‑1;o2表示模型整合操作,采用权重平均对模型进行整合,但是由于部分客户端有可能在本地训练中失败,因此服务器仅能整合成功训练完的客户端,即
[0019]作为优选的技术方案,步骤S3中,建模客户端选择问题,具体为:
[0020][0021][0022]其中,表示客户端k在所选客户端集合中的权重,用于衡量客户端数据之间的冗余;表示客户端k在A
t
中的索引,其中选中的客户端按照数据大小降序排列,较小的表示客户端k上的数据量较大;相反,越大,表示数据越少,客户数据
排名靠前的冗余可能性越大;π
t
(k)表示客户端k在第t轮训练中被成功用于训练的数据大小。
[0023]作为优选的技术方案,通过量化客户端数据和资源异构性对不稳定联邦学习场景的影响,提出客户端的有效参与数据衡量客户端的性能,并提出累积有效参与数据用于衡量三种不稳定因素对整体性能的影响。
[0024]作为优选的技术方案,客户端的选择优化问题是一个次模函数的优化问题,并将其转为
[0025][0026][0027]其中,
[0028]作为优选的技术方案,步骤S4中,所述客户端性能的上界置信值定义:
[0029][0030]其中,表示客户端k在第t

1次训练时得到的经验平均值,是围绕经验平均值的置信上限。
[0031]作为优选的技术方案,步骤S4中,每轮训练贪婪地选择上界置信值较高的客户端,因此在每轮训练中,最优的客户端集合可以表示为:
[0032][0033]作为优选的技术方案,步骤S4中,所述客户端的遗憾的上限值为:
[0034][0035]本专利技术另一方面提供了一种面向不稳定联邦学习场景的客户端选择优化系统,包括不稳定因素分析模块、第一建模模块、第二建模模块和客户端选择模块;
[0036]所述不稳定因素分析模块,用于分析不稳定联本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.面向不稳定联邦学习场景的客户端选择优化方法,其特征在于,包括下述步骤:S1、分析不稳定联邦学习的不稳定因素,所述不稳定因素包括客户端集合、客户端本地数据和客户端本地训练状态;S2、建模客户端集合、客户端本地数据和客户端本地训练状态对模型训练性能的影响;S3、建模客户端选择问题,即建模不稳定客户端集合、不稳定客户端本地数据和不稳定客户端本地训练状态对客户端选择的影响;S4、提出一种基于上界置信区间和贪婪选择的客户端选择方法,选择最优的客户端组合,所述基于上界置信区间和贪婪选择的客户端选择方法,包括下述步骤:S41、初始化:将目前所包含的客户端分为两个集合,K
e
表示本轮开始之前已经被选择过至少一次的客户端集合,K
ne
表示目前为止一次都没有被选择过的客户端集合,所述客户端集合包括新进入的客户端;S42、判断客户端是否已被选择过,若客户端一次都没被选择过,则将客户端加入应选择的客户端集合中;若客户端已经被选择过了,则计算客户端的上界置信值并将上界置信值较高的客户端加入应选择的客户端集合中;S43、服务器将模型发送给选择的客户端,被选择的客户端利用自己的本地数据训练模型并将训练完的模型发送给服务器,服务器对客户端上传的模型参数进行整合更新;S44、判断是否达到结束训练的条件,如果达到结束条件则退出训练,反之,则从初始化开始重复上述操作。2.根据权利要求1所述面向不稳定联邦学习场景的客户端选择优化方法,其特征在于,步骤S2具体为:将客户端集合、客户端本地数据和客户端本地训练状态对模型训练性能的影响建模为:其中,t∈τ=[1,

,T]表示执行第t次模型训练,T表示总的训练次数;A
t
表示在第t轮训练中选择的客户端集合;K(t)表示在第t次训练时所有的客户端集合;表示客户端k在第t轮训练时权重所占的比例;E[
·
]表示期望;f(
·
)表示本地损失函数;表示客户端k在第t次训练时的本地数据集合;表示客户端k的数据分布;w
t
表示第t次训练时的全局模型参数;x
k,t
表示客户端的训练状态,若客户端成功完成本地训练x
k,t
=1,反之则为0;o1表示本地更新操作,在该过程中,应用标准的FedAvg和典型的随机梯度下降,具体的更新方式为注意,每轮的局部权重w
k,t
可能因为客户端本地训练失败而无法获得,且如果训练失败,客户端k的局部权重仍然是w
k,t
=w
k,t
‑1;o2表示模型整合操作,采用权重平均对模型进行整合,但是由于部分客户端有可能在本地训练中失败,因此服务器仅能整合成功训练完的客户端,即3.根据权利要求1所述面向不稳定联邦学习场景的客户端选择优化方法,其特征在于,步骤S3中,建模客户端选择问题,具体为:
其中,表示客户端k在所选客户端集合中的权重,用于衡量客户端数据之间的冗余;表示客户端k在A
t
中的索引...

【专利技术属性】
技术研发人员:林伟伟石方
申请(专利权)人:华南理工大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1