一种基于分布式联邦学习的云边网络通信优化方法及系统技术方案

技术编号:35437921 阅读:28 留言:0更新日期:2022-11-03 11:47
本发明专利技术公开了一种基于分布式联邦学习的云边网络通信优化方法及系统,方法包括以下步骤:步骤A、构建分布式联邦学习框架下的云边网络框架,包括了主从结构模式下运行的分布式联邦学习和完全去中心化的分布式联邦学习两种模式;步骤B、建立主从结构分布式联邦学习模式的模型;步骤C、建立去中心化联邦学习模式的模型,并在该模式下实现异步训练算法;步骤D、建立去中心化异步模型训练场景下的边缘节点选择算法。本发明专利技术提高了大数据场景下云边网络结构的模型训练速度,降低了通信成本。降低了通信成本。降低了通信成本。

【技术实现步骤摘要】
一种基于分布式联邦学习的云边网络通信优化方法及系统


[0001]本专利技术涉及联邦机器学习
,特别地涉及针对在省级智慧能源服务平台云边协同网络边缘节点上进行分布式人工智能模型训练场景的通信优化方法和系统,具体涉及一种基于分布式联邦学习的云边网络通信优化方法及系统。

技术介绍

[0002]近年来,以深度学习为代表的机器学习技术的发展为人工智能技术的进步创造了动力。而随着物联网技术的发展,更多微型设备甚至移动设备都具备强大的芯片、传感器以及计算能力,能够在处理高级任务的同时,收集和产生更丰富的数据。以这些数据作为驱动,为机器学习创造了十分有利的基础条件。
[0003]而在万物互联的时代,这些处于边缘的设备每分每秒都产生着数以亿计的数据,这些数据全部上传到云服务器会占用大量的网络带宽。同时,以云为中心的学习方式传输延迟高,不能及时进行数据交互,给网络带来不必要的负担。
[0004]同时,数据所有者对隐私越来越注重,用户往往不愿共享自己的个人数据。许多国家和组织也制定了相关隐私政策,例如欧盟制定的《通用数据保护条例》。因此,利用一些边缘设备的计算和存储能力,把计算推向边缘被提出作为一种解决方案。
[0005]因此,在应对需要并且可以并行处理大量数据的机器学习领域,联邦学习应运而生。其目的在于保护大数据环境下模型学习中涉及的用户数据隐私。在联邦学习训练过程中,只需要将所有边缘节点在其私有数据上训练的本地模型上传到云服务器中进行聚合,不涉及数据本身,很大程度上提高了用户数据的隐私性。同时,边缘计算的提出是为了缓解云中心的计算压力,目的是把云服务中心的计算任务卸载到边缘,这恰好与联邦学习的计算模式相适应,为联邦学习创造了有利条件。在边缘设备上训练模型,除了保证数据不离开本地,还能让计算更加靠近数据源以节省通信成本。
[0006]省级智慧能源服务平台中边缘设备利用本地数据训练得到本地模型,再通过广域网传送到系统中的云端服务器。然而参与分布式学习的设备成千上万,边缘设备和云端服务器之间的大量通信必然会占用过多的带宽。同时,边缘设备的信号和能量状态也会影响与服务器的通信,导致产生网络延迟,消耗更多的通信成本。同时,升级智慧能源服务平台面向的用户对自身数据对于隐私有着高需求,因此也需要一种无需使自身数据离开本地的训练模式。因此为了提高训练过程中通信的实时性,满足用户的隐私需求,可以应用联邦学习来解决上述的问题。

技术实现思路

[0007]本专利技术的目的是提供一种基于分布式联邦学习的云边网络通信优化方法及系统,以解决省级智慧能源服务平台中应用机器学习模型的数据并行训练需求爆发式增长,带来的以云为中心网络通信负担,以及考虑大数据应用中的用户隐私要求的技术问题。
[0008]为实现本专利技术的目的,本专利技术提供的技术方案如下:
[0009]第一方面
[0010]本专利技术实施例提供了一种基于分布式联邦学习的云边网络通信优化方法,包括以下步骤:
[0011]步骤A、构建分布式联邦学习框架下的云边网络框架,在基于传统中心服务器联邦学习的训练过程和框架模型的基础上,提出去中心化异步联邦学习架构;
[0012]步骤B、建立主从结构分布式联邦学习模式的模型,包括最小化模型聚合的损失函数、分布式联邦学习的全局联合优化目标、分布式模型参数的梯度下降函数和参数更新过程;
[0013]步骤C、建立去中心化联邦学习模式的模型,并在该模式下实现异步训练算法,包括在边缘节点异质化问题突出的情况下,如何从以主从结构的分布式联邦学习转化为去中心化的分布式联邦学习,并提出模式更新后的参数更新过程和联合优化目标;
[0014]步骤D、建立去中心化异步模型训练场景下的边缘节点选择算法,用来优化分布式联邦学习目标函数的收敛速度,降低算法复杂度,避免陷入局部最优解。
[0015]其中,步骤A中所述的分布式联邦学习框架下的云边网络框架,包含了主从结构模式下运行的分布式联邦学习和完全去中心化的分布式联邦学习两种模式。
[0016]其中,步骤B中,边缘节点及其集合的表示为d∈D,云端服务器表示为ε,模型的损失函数表示为f(ω),损失函数的梯度表示为Δf(ω),模型训练的步长表示为η,节点d上的本地训练数据表示为X
d
,节点d上的每轮训练时间的间隔为τ
d
,模型聚合的权重表示为μ;
[0017]在主从结构下分布式联邦学习的训练过程中,假设训练的模型包含一组参数用ω表示,这些参数通过本地训练数据并在云端聚合来学习,令ω*为模型训练的最优参数,则模型的学习过程就是最小化模型聚合的损失函数,表示为:
[0018]ω
*
=arg min f(ω)
[0019]其中f(ω)为模型的损失函数,在深度学习模型中一般为交叉熵损失函数;假设X
d
表示边缘节点d上的本地训练数据,ω
d
表示边缘节点的本地模型参数,可得主从结构下分布式联邦学习的全局联合优化目标为:
[0020][0021]其中ρ为二次惩罚项,接下来对单个节点的训练过程进行独立分析,在每轮训练中,模型采用梯度下降法从训练数据中学习更新的梯度,假设设备节点d的损失函数为f
d

d
),在时刻t的本地模型参数的梯度下降更新可以表示为:
[0022][0023]其中η表示训练步长,表示损失函数f
d
的梯度,当所有节点完成这一轮的本地模型训练后,节点将模型参数发送到云端进行参数聚合,可表示为:
[0024][0025]其中μ为模型聚合的权重,云端聚合的模型参数就是所有边缘节点的模型参数加权平均,并且对于全局模型的参数聚合,都是在每轮迭代的最后才进行的,再下发给每个训练节点执行下一轮的训练。
[0026]其中,步骤C中,假设在第t轮迭代中,节点d收到其他节点推送的模型更新用集合表示为则可以用数学公式表示参数更新过程为:
[0027][0028][0029]其中η表示本地训练步长,μ表示模型聚合权重,由此可得,去中心化异步联邦学习的联合优化目标为:
[0030][0031]其中,步骤C中,分布式异步联邦学习算法的流程如下:
[0032]C1:初始并更新节点d的参数,ω
0,d

ω0,t=1,2,...,T;
[0033]C2:判断t≡0 mod τ
d
,若是,进入步骤C3;若否,进入步骤C1;
[0034]C3:更新节点d的梯度,
[0035]C4:基于反熵算法自适应选择新的节点集合j∈J
t

[0036]C5:推送模型参数

节点j;
[0037]C6:获取上一个时间τ
d
内,其他节点推送的模型p∈P
t

[0038]C7:聚合
[0039]其中,步骤D中,边缘节点选择算法采用反熵算本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于分布式联邦学习的云边网络通信优化方法,其特征在于:包括以下步骤:步骤A、构建分布式联邦学习框架下的云边网络框架,在基于传统中心服务器联邦学习的训练过程和框架模型的基础上,提出去中心化异步联邦学习架构;步骤B、建立主从结构分布式联邦学习模式的模型,包括最小化模型聚合的损失函数、分布式联邦学习的全局联合优化目标、分布式模型参数的梯度下降函数和参数更新过程;步骤C、建立去中心化联邦学习模式的模型,并在该模式下实现异步训练算法,包括在边缘节点异质化问题突出的情况下,如何从以主从结构的分布式联邦学习转化为去中心化的分布式联邦学习,并提出模式更新后的参数更新过程和联合优化目标;步骤D、建立去中心化异步模型训练场景下的边缘节点选择算法,用来优化分布式联邦学习目标函数的收敛速度,降低算法复杂度,避免陷入局部最优解。2.根据权利要求1所述的基于分布式联邦学习的云边网络通信优化方法,其特征在于:步骤A中所述的分布式联邦学习框架下的云边网络框架,包含了主从结构模式下运行的分布式联邦学习和完全去中心化的分布式联邦学习两种模式。3.根据权利要求1所述的基于分布式联邦学习的云边网络通信优化方法,其特征在于:步骤B中,边缘节点及其集合的表示为d∈D,云端服务器表示为ε,模型的损失函数表示为f(ω),损失函数的梯度表示为Δf(ω),模型训练的步长表示为η,节点d上的本地训练数据表示为X
d
,节点d上的每轮训练时间的间隔为τ
d
,模型聚合的权重表示为μ;在主从结构下分布式联邦学习的训练过程中,假设训练的模型包含一组参数用ω表示,这些参数通过本地训练数据并在云端聚合来学习,令ω*为模型训练的最优参数,则模型的学习过程就是最小化模型聚合的损失函数,表示为:ω
*
=arg min f(ω)其中f(ω)为模型的损失函数,在深度学习模型中一般为交叉熵损失函数;假设X
d
表示边缘节点d上的本地训练数据,ω
d
表示边缘节点的本地模型参数,可得主从结构下分布式联邦学习的全局联合优化目标为:其中ρ为二次惩罚项,接下来对单个节点的训练过程进行独立分析,在每轮训练中,模型采用梯度下降法从训练数据中学习更新的梯度,假设设备节点d的损失函数为f
d

d
),在时刻t的本地模型参数的梯度下降更新可以表示为:其中η表示训练步长,表示损失函数f
d
的梯度,当所有节点完成这一轮的本地模型训练后,节点将模型参数发送到云端进行参数聚合,可表示为:其中μ为模型聚合的权重,云端聚合的模型参数就是所有边缘节点的模型参数加权平均,并且对于全局模型的参数聚合,都是在每轮迭代的最后才进行的,...

【专利技术属性】
技术研发人员:程宝华石杰张华鲁杨斌李野李刚赵晨阳冀睿琳任禹丞杨子跃苏慧玲王忠东
申请(专利权)人:南京南瑞信息通信科技有限公司国网电力科学研究院有限公司国网江苏省电力有限公司国网江苏省电力有限公司营销服务中心
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1