基于夏普利值的联邦学习移动设备分布数据处理方法技术

技术编号:34556649 阅读:31 留言:0更新日期:2022-08-17 12:42
一种基于夏普利值的联邦学习移动设备分布数据处理方法,将多个移动设备构建联邦学习集群,在联邦学习的每一轮中,中心节点应用Monte

【技术实现步骤摘要】
基于夏普利值的联邦学习移动设备分布数据处理方法


[0001]本专利技术涉及的是一种分布式数据处理领域的技术,具体是一种基于联邦学习(FederatedLearning)和夏普利值(Shapley Value)的移动设备分布数据处理方法。

技术介绍

[0002]随着移动网络的不断发展,不同网络层的设备实时产生的数据量越来越大,格式越来越复杂,需要人工智能模型来自动地管理整个网络。传统的模型训练方法要求一个中心服务器从各个移动设备采集数据,然后集中式地训练模型。但是,传输大量数据会带来高昂的通信开销,并且上传用户数据会侵犯移动设备的隐私。
[0003]联邦学习框架作为一种分布式的机器学习方法被提出来解决上述问题,在每轮训练中,移动设备上传模型更新而非用户数据,在减小通信开销的同时避免了客户私密数据的泄露。受到中心服务器通信带宽和计算资源的限制,在每一轮的联邦学习过程中,仅有部分移动设备能够被中心服务器选中参与到模型的训练过程,极大地限制了每次模型更新所涉及的训练数据量,从而降低了模型的收敛速度和最终性能。
[0004]许多工作证明了不同训练数据样本对于模型训练的重要程度也是不同的,仅挑选部分重要的样本参与训练能够在减少训练时长的同时保证模型的最终精度。已有一些工作提出了集中式学习场景下的训练数据选择方法,包括基于LOO(Leave

one

out)的方法,基于影响函数 (Influence Function)的方法和基于数据夏普利值(Data Shapley)的方法。相比于前两种方法,以夏普利值作为选择的标准具有三条令人满意的性质:有效性(Efficiency)、对称性(Symmetry) 和可加性(Additivity),所以被广泛地认为是最公平合理的选择方法。

技术实现思路

[0005]本专利技术针对现有移动设备的算力资源和模型表现无直接关联、没有考虑移动设备的数据特点和当前中心节点的模型,仅凭借算力选择移动设备,无法从理论上加快模型收敛、提升模型精度的缺陷,提出一种基于夏普利值的联邦学习移动设备分布数据处理方法,将夏普利值更为合理地应用于联邦学习来解决移动设备的选择问题;提出联邦夏普利值的估计方法来避免指数次的模型重复训练,并结合传统的Monte

Carlo采样方法进一步度简化夏普利值的计算复杂度,从而能够衡量各个移动终端的数据集对模型训练过程的影响,从而在每轮选择高贡献度的设备参与训练,减少数据通信开销,加快收敛速度,提升模型表现。
[0006]本专利技术是通过以下技术方案实现的:
[0007]本专利技术涉及一种基于夏普利值的联邦学习移动设备分布数据处理方法,将多个移动设备构建联邦学习集群,在联邦学习的每一轮中,中心节点应用Monte

Carlo采样方法估计各个联邦学习移动设备当前的联邦夏普利值(Fed

Shapley),并将其在全局模型参数相对于初始参数的变化方向上的投影作为其对模型的重要性与贡献度,并基于联邦夏普利值
选择联邦学习移动设备参与本轮的模型训练能够有效加快模型收敛速度,提升模型最终的精度。
[0008]所述的夏普利值为:其中:为联邦学习移动设备k在第t轮的联邦夏普利值;C为所有联邦学习移动设备的集合;S为移动设备子集;为只有移动设备子集S参与到联邦学习训练过程时,全局模型在第t轮的参数,其值需要通过重新训练模型得到。
[0009]所述的联邦夏普利值(Fed

Shapley),通过以下方式估计得到:Shapley),通过以下方式估计得到:其中:为联邦学习移动设备k在第t轮的联邦夏普利值;C为所有联邦学习移动设备的集合; S和Q表示联邦学习移动设备子集;为只有联邦学习移动设备子集S参与到联邦学习训练过程时,全局模型在第t轮的参数;表示在训练过程中从总联邦学习移动设备集合C 移除设备子集Q后,模型在第t轮的参数变化。其值可以通过本专利技术的估计方法得到:其中:C
t
为当前参与模型训练的移动设备集合;n
k
为第k个联邦学习移动设备的数据集大小; N(C
t
\Q)为设备子集C
t
\Q的总数据集大小;m为移动设备本地更新模型的次数;I为单位矩阵;η为学习率;表示当模型参数为时,模型在设备k的数据集D
k
上的损失函数;为第t轮联邦学习过程中移动设备k在本地数据集上更新i次后的模型;表示只在第t轮将联邦学习移动设备子集Q移除后全局模型的参数。因为联邦夏普利值的计算需要遍历移动设备集合C的每一个子集,用Monte

Carlo采样方法来估计可以得到时间复杂度更低的估计方法。
[0010]所述的Monte

Carlo采样是指:随机选取包含所有联邦学习移动的多个排列,按照顺序计算每一个排列当中每个联邦学习移动对排列中位于其之前的移动设备集合的边际贡献。最后对每个联邦学习移动设备的边际贡献求取平均值即为每个设备的重要性,即移动设备选择的标准。
[0011]所述的边际贡献是指:将此联邦学习移动设备加入训练后全局模型参数的变化。
[0012]所述的联邦学习移动设备选择算法,基于博弈论的经典概念夏普利值(ShapleyValue),具有与之类似的三条公平性定理:当设备k的数据集对于模型性能没有影响,则其价值为0;当对于两个设备k1,k2,将其数据集分别添加到任意子集后模型性能相同,则k1和k2具有相同的价值;任意多种评估方法得到的数据集价值等于这些评估方法结合在一起得到的数据集价值。
[0013]所述的模型训练,具体包括:1)中心节点下发全局模型给被选中的联邦学习移动设备; 2)联邦学习移动设备根据本地数据样本更新模型,并将更新后的模型参数上传给中
心节点;3) 中心节点聚合各个联邦学习移动设备上传的模型参数为新一轮的全局模型。
[0014]所述方法,具体包括:
[0015]步骤1、在联邦学习过程的开始阶段,中心节点应用Monte

Carlo采样方法选取p个包含所有联邦学习移动设备的排列A
i
,i=0,1,...,p

1,对于每个排列里的每个移动设备A
i
[j],中心初始化该设备与其之前设备所组成的设备子集对模型影响的估计,即Q= A
i
[0:j],j=0,1,...,|C|,i=0,..,p。
[0016]步骤2、在训练过程中的每一轮,参与训练的联邦学习移动设备k不仅上传经过本地更新后的模型,而且上传本地多次迭代对应的参数修正项,具体为:地更新后的模型,而且上传本地多次迭代对应的参数修正项,具体为:其中:m为移动设备本地更新模型的次数;I为单位矩阵;η为学习率;为第t轮联邦学习过程中移动设备k在本地数据集上更新i次后的模型;为模型在数据集D
k
上损失函数的二阶导数。
[0017]步本文档来自技高网
...

【技术保护点】

【技术特征摘要】
Value),具有与之类似的三条公平性定理:当设备k的数据集对于模型性能没有影响,则其价值为0;当对于两个设备k1,k2,将其数据集分别添加到任意子集后模型性能相同,则k1和k2具有相同的价值;任意多种评估方法得到的数据集价值等于这些评估方法结合在一起得到的数据集价值。7.根据权利要求1所述的基于夏普利值的联邦学习移动设备分布数据处理方法,其特征是,所述的模型训练,具体包括:1)中心节点下发全局模型给被选中的联邦学习移动设备;2)联邦学习移动设备根据本地数据样本更新模型,并将更新后的模型参数上传给中心节点;3)中心节点聚合各个联邦学习移动设备上传的模型参数为新一轮的全局模型。8.根据权利要求1~7中任一所述的基于夏普利值的联邦学习移动设备分布数据处理方法,其特征是,具体包括:步骤1、在联邦学习过程的开始阶段,中心节点应用Monte

Carlo采样方法选取p个包含所有联邦学习移动设备的排列A
i
,i=0,1,...,p

1,对于每个排列里的每个移动设备A
i
[j],中心初始化该设备与其之前设备所组成的设备子集对模型影响的估计,即Q=A
i
[0:j],j=0,1,...,|C|,i=0,..,p;步骤2、在训练过程中的每一轮,参与训练的联邦学习移动设备k不仅上传经过本地更新后的模型,而且上传本地多次迭代对应的参数修正项,具体为:其中:m为移动设备本地更新模型的次数;I为单位矩阵;η为学习率;为第t轮联邦学习过程中移动设备k在本地数据集上更新i次后的模型;为模型在数据集D
k
上损失函数的二阶导数;步骤3、中心节点依据各个设备上传的...

【专利技术属性】
技术研发人员:郑臻哲公辰吴帆陈贵海
申请(专利权)人:上海交通大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1