一种边缘聚合间隔自适应控制的分层联邦学习方法、计算机设备、存储介质技术

技术编号:30315550 阅读:23 留言:0更新日期:2021-10-09 23:00
本发明专利技术公开了一种边缘聚合间隔自适应控制的分层联邦学习方法,包括如下步骤:1)搭建以边缘设备,边缘服务器,云服务器为主要元素的分层联邦学习系统;2)在每个训练周期的起始阶段,云服务器根据当前的训练情况,优化边缘聚合间隔以及当前周期的训练时延预算;3)在训练过程中,边缘设备训练本地模型;并且根据边缘聚合间隔将本地模型发送到边缘服务器进行边缘聚合从而生成边缘模型;在每个周期的结束阶段,边缘服务器将边缘模型上传到云服务器进行全局聚合从而生成全局模型。该发明专利技术能够自适应地调整边缘聚合的间隔,在学习性能和训练时延中取得平衡。延中取得平衡。延中取得平衡。

【技术实现步骤摘要】
一种边缘聚合间隔自适应控制的分层联邦学习方法、计算机设备、存储介质


[0001]本专利技术涉及机器学习和移动通信
,特别是一种边缘聚合间隔自适应控制的分层联邦学习方法、计算机设备、存储介质。

技术介绍

[0002]随着人工智能技术的广泛应用,为更好的保护用户隐私,联邦学习的概念被提出。在联邦学习系统中,设备不直接将本地数据上传到云服务器,而是先进行本地计算,将训练之后的神经网络模型上传到云服务器进行全局聚合。云服务器会将生成的全局模型反馈给设备,从而进行下一个周期的训练。然而,由于云服务器与设备距离较远,并且无线资源有限,直接和云服务器通信可靠性较低,并且会产生较大的传输时延。为解决该问题,分层的联邦学习框架被提出,其中具体做法为训练过程中,边缘设备训练本地模型;并且根据边缘聚合间隔将本地模型发送到边缘服务器进行边缘聚合;然后边缘服务器将更新之后的边缘模型发送给关联的边缘设备从而继续进行本地训练;在每个周期的结束阶段,边缘设备通过边缘服务器将边缘模型上传到云服务器进行全局聚合;最后云服务器将全局模型广播给所有边缘设备从而进行下一轮的训练。分层联邦学习能够提高本地模型传输的可靠性,并且能采集更多的本地模型,提高学习性能。

技术实现思路

[0003]本专利技术所要解决的技术问题是克服现有技术的不足而提供的一种边缘聚合间隔自适应控制的分层联邦学习方法,其目标最小化训练损失和训练时延的加权和。
[0004]本专利技术为解决上述技术问题采用以下技术方案:本专利技术提出一种边缘聚合间隔自适应控制的分层联邦学习方法,通过部署边缘服务器协助联邦学习训练;云服务器根据当前的训练情况,优化边缘聚合间隔以及当前周期的训练时延预算;根据优化之后的边缘聚合间隔以及训练时延预算,边缘设备,边缘服务器,云服务器协作地完成联邦学学习训练,具体步骤如下:
[0005]步骤1,搭建以边缘设备,边缘服务器,云服务器为元素的分层联邦学习系统;该系统部署在无线环境中;其中包含多个边缘设备,多个边缘服务器,以及一个云服务器;边缘设备集合定义为K={1,2,...k,...,K},边缘服务器集合定义为S={1,2,...s,...,S};边缘设备k本地的数据集为其中,i是样本的索引,x
k,i
是第i个输入样本,y
k,i
是该样本的标签,D
k
设训练样本的数目,这些数据可以来自任意的学习任务;由于边缘服务器覆盖范围有限,每个边缘服务器只关联一部分的边缘设备,定义被边缘服务器s服务的设备集合为V
s
;边缘设备,边缘服务器,云服务器协助地完成联邦学习训练,目标为训练出模型w使得全局损失最小:
[0006][0007]其中,是全局损失函数值,是总样本,l(w,x
k,i
,y
k,i
)是边缘设备k在给定模型w情况下在训练数据{x
k,i
,y
k,i
}上的损函数失值,l是任意损失函数;
[0008]步骤2,联邦学习的训练过程是一个迭代过程,需要多个训练周期,并且在每一个周期边缘设备要进行多次本地训练,边缘设备利用自己的本地数据训练本地模型,多次边缘聚合,边缘聚合就边缘服务器对采集到的本地模型进行加权平均,边缘设备将更新之后的本地模型上传到与其相关联的边缘服务器,边缘服务器对收集的边缘模型进行加权平均运算生成新的边缘模型,以及一次全局聚合,边缘服务器将更新之后的边缘模型上传到云服务器,云服务器对收集的边缘模型进行加权平均运算生成新的全局模型,训练周期的集合定义R={1,2,..,r,...,R},其中R为总的训练周期数,在训练周期r的开始阶段,云服务器根据当前训练情况优化边缘聚合间隔I
(r)
,该变量定义为训练周期r中边缘设备在两次边缘聚合之间本地训练的次数;此外云服务器优化当前周期的训练时延预算τ
(r)
,该变量为训练周期r消耗的时间;当前周期边缘设备最多需要进行G次本地训练,其中在训练周期r,边缘设备需要将本地模型上传给边缘服务器次,则训练周期r内实际的本地训练次数为:
[0009]由于当前周期的训练时延预算已经给定,训练周期r内两次边缘聚合之间的训练时延预算为并且有些边缘设备无法在两次边缘聚合之间完成本地训练和模型上传,用变量来表示边缘设备k可以在两次边缘聚合之间的时间内完成本地训练和模型上传,反之来表示边缘设备k无法在两次边缘聚合之间的时间内完成本地训练和模型上传,其中1≤t
r
≤G是边缘设备k在训练周期r进行本地训练的次数的索引;
[0010]步骤3,具体训练过程如下:
[0011]在训练周期r,边缘设备k基于自己的本地数据训练本地模型;更新过程为:
[0012][0013]其中,是在训练周期r内第t
r
次本地训练后的本地模型,γ是学习率,是边缘设备k在本地模型上基于本地数据训练出的梯度,该更新过程所用的优化器为随机梯度下降;
[0014]经过I
(r)
次本地训练后,边缘设备将更新之后的本地模型发送给与其相关联的边缘服务器进行边缘聚合从而生成边缘模型,边缘服务器s的边缘聚合的过程为;
[0015][0016]其中,是在训练周期r内第t
r
次本地训练后边缘聚合更新的边缘模型,用于表示边缘设备能否在两次边缘聚合之间完成本地训练和模型上传,V
s
是与边缘服务器s相关联的边缘设备集合,在进行边缘聚合之后,边缘服务器会根据边缘设备本地训练的次数来决定是否进行全局聚合,具体来说,如果本周期内边缘设备本地训练的次数没有达到G
(r)
次,边缘服务器会将更新之后的边缘模型发送给与其相关联的边缘设备,用于替换边缘设备的本地模型,从而继续本地训练;如果本地训练的次数已经达到G
(r)
次,边缘服务器会将更新之后的边缘模型上传到云服务器进行全局聚合从而生成全局模型,全局聚合的过程为:
[0017][0018]其中,是在训练周期r内第t
r
次本地训练后通过全局聚合更新的全局模型,用于表示边缘设备能否在两次边缘聚合之间完成本地训练和模型上传,V
s
是与边缘服务器s相关联的边缘设备集合。该全局模型会被发送给所有的边缘设备用于替换边缘设备的本地模型,并且用于下一个周期的训练。
[0019]作为本专利技术的一种边缘聚合间隔自适应控制的分层联邦学习方法,其特征在于,步边缘聚合间隔以及训练时延预算是依据最小化训练损失和训练时延的加权和的原则,优化问题为:
[0020][0021]其中,I={I
(1)
,I
(2)
,...,I
(r)
...,I
(R)
}是每个周期边缘聚合间隔组成的集合;
[0022]τ={τ
(1)

(2)
,...,τ
(R)
}是每个周期训练时延本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种边缘聚合间隔自适应控制的分层联邦学习方法,其特征在于,通过部署边缘服务器协助联邦学习训练;云服务器根据当前的训练情况,优化边缘聚合间隔以及当前周期的训练时延预算;根据优化之后的边缘聚合间隔以及训练时延预算,边缘设备,边缘服务器,云服务器协作地完成联邦学学习训练,具体步骤如下:步骤1,搭建以边缘设备,边缘服务器,云服务器为元素的分层联邦学习系统;该系统部署在无线环境中;其中包含多个边缘设备,多个边缘服务器,以及一个云服务器;边缘设备集合定义为K={1,2,...k,...,K},边缘服务器集合定义为S={1,2,...s,...,S};边缘设备k本地的数据集为其中,i是样本的索引,x
k,i
是第i个输入样本,y
k,i
是该样本的标签,D
k
设训练样本的数目;由于边缘服务器覆盖范围有限,每个边缘服务器只关联一部分的边缘设备,定义被边缘服务器s服务的设备集合为V
s
;边缘设备,边缘服务器,云服务器协助地完成联邦学习训练,目标为训练出模型w使得全局损失最小:其中,是全局损失函数值,是总样本,l(w,x
k,i
,y
k,i
)是边缘设备k在给定模型w情况下在训练数据{x
k,i
,y
k,i
}上的损函数失值,l是任意损失函数;步骤2,联邦学习的训练过程是一个迭代过程,需要多个训练周期,并且在每一个周期边缘设备要进行多次本地训练,边缘设备利用自己的本地数据训练本地模型,多次边缘聚合,边缘聚合就边缘服务器对采集到的本地模型进行加权平均,边缘设备将更新之后的本地模型上传到与其相关联的边缘服务器,边缘服务器对收集的边缘模型进行加权平均运算生成新的边缘模型,以及一次全局聚合,边缘服务器将更新之后的边缘模型上传到云服务器,云服务器对收集的边缘模型进行加权平均运算生成新的全局模型,训练周期的集合定义R={1,2,..,r,...,R},其中,R为总的训练周期数,在训练周期r的开始阶段,云服务器根据当前训练情况优化边缘聚合间隔I
(r)
,该变量定义为训练周期r中边缘设备在两次边缘聚合之间本地训练的次数;此外云服务器优化当前周期的训练时延预算τ
(r)
,该变量为训练周期r消耗的时间;当前周期边缘设备最多需要进行G次本地训练,其中在训练周期r,边缘设备需要将本地模型上传给边缘服务器次,则训练周期r内实际的本地训练次数为:由于当前周期的训练时延预算已经给定,训练周期r内两次边缘聚合之间的训练时延预算为并且有些边缘设备无法在两次边缘聚合之间完成本地训练和模型上传,用变量来表示边缘设备k可以在两次边缘聚合之间的时间内完成本地训练和模型上传,反之来表示边缘设备k无法在两次边缘聚合之间的时间内完成本地训练和模型上传,其中,1≤t
r
≤G是边缘设备k在训练周期r进行本地训练的次数的索引;步骤3,具体训练过程如下:
在训练周期r,边缘设备k基于自己的本地数据训练本地模型;更新过程为:其中,是在训练周期r内第t
r
次本地训练后的本地模型,γ是学习率,是边缘设备k在本地模型上基于本地数据训练出的梯度,该更新过程所用的优化器为随机梯度下降;经过I
(r)
次本地训练后,边缘设备将更新之后的本地模型发送给与其相关联的边缘服务器进行边缘聚合从而生成边缘模型,边缘服务器s的边缘聚合的过程为:其中,是在训练周期r内第t
r
次本地训练后边缘聚合更新的边缘模型,用于表示边缘设备k能否在两次边缘聚合之间完成本地训练和模型上传,V
s
是与边缘服务器s相关联的边缘设备集合,在进行边缘聚合之后,边缘服务器会根据边缘设备本地训练的次数来决定是否进行全局聚合,具体来说,如果本周期内边缘设备本地训练的次数没有达到G
(r)
次,边缘服务器会将更新之后的边缘模型发送给与其相关联的边缘设备,用于替换边缘设备的本地模型,从而继续本地训练;如果本地训练的次数已经达到G
(r)
次,边缘服务器会将更新之后的边缘模型上传到云服务器进行全局聚合从而生成全局模型,全局聚合的过程为:其中,是在训练周期r...

【专利技术属性】
技术研发人员:夏文超徐波赵海涛张晖倪艺洋蔡艳朱洪波
申请(专利权)人:南京邮电大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1