System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 加快分布式学习框架收敛速度的设备发送功率配置方法技术_技高网

加快分布式学习框架收敛速度的设备发送功率配置方法技术

技术编号:45085850 阅读:9 留言:0更新日期:2025-04-25 18:23
加快分布式学习框架收敛速度的设备发送功率配置方法,属于通信领域,包括:建立分布式学习框架;当进入每一个训练轮次内,各设备获取其到基站的信道增益向量、基站的接收波束赋形配置方案和待发送的本地梯度;各设备以放大空中计算失真为准则,设置自身发送功率,在相同的时频资源上使用所设置的发送功率并发地向基站发送本地梯度;基站基于空中计算技术聚合各设备的本地梯度以获得当前训练轮次的全局梯度,并使用全局梯度更新全局模型。本发明专利技术通过放大基于空中计算的梯度聚合信号的失真,以加快分布式学习框架的收敛速度。通过降低分布式学习框架中各设备的发送功率,进而可在放大空中计算失真的同时节省设备发送功率以及通信能耗。

【技术实现步骤摘要】

本专利技术属于通信,具体涉及一种加快分布式学习框架收敛速度的设备发送功率配置方法


技术介绍

1、无线网络中的分布式学习框架包含一个基站与多个设备,其中基站具有全局模型,而各设备具有本地数据集和全局模型的副本。分布式学习框架的流程分为多个轮次,在每个轮次,各设备使用本地数据集中的数据和全局模型的副本计算本地梯度;进而,各设备将本地梯度上传基站进行聚合,以产生全局梯度;接着,基站使用聚合产生的全局梯度更新全局模型;最后,基站将更新后的全局模型下发给各设备,以更新各设备的全局模型副本。上述过程重复多个轮次,直到基站的全局模型达到收敛,即全局模型的性能收敛到某预定标准,或者达到最大允许的轮次数量。

2、使用空中计算(over-the-air computation,aircomp)技术的多个发送端在相同的时频资源上并发传输信号,利用无线信道的叠加特性完成信号层面的计算,使得接收端直接接收到各发送端所发送信号的计算结果。在分布式学习框架中,该技术常用于在基站处聚合来自各设备的本地梯度。

3、梯度下降算法是一种用于训练人工智能(artificial intelligence,ai)模型的基础算法。在该算法中,首先,利用数据样本和ai模型计算得到梯度;随后,利用待更新ai模型的参数减去学习率与梯度的乘积,得到更新后的ai模型。在分布式学习框架中,该算法被用于在基站处更新全局模型。

4、与本专利技术最接近的现有技术为基于失真抑制准则(即以最小化aircomp聚合梯度信号的均方误差(mean square error,mse)为目标)的设备发送功率配置方法(参考论文1(《如何在可重构智能表面(ris)辅助的空中联邦学习(over-the-air federatedlearning)中平衡准确性和完整性,(balancing accuracy and integrity forreconfigurable intelligent surface-aided over-the-air federated learning),作者:郑景桁; 田辉; 倪万里; 倪巍; 张平,ieee无线通信学报(卷:21,第12期:1222年12月12日),页:10964-10980,出版日期:2022年7月13日》,网址:https://ieeexplore.ieee.org/document/9829190)和论文2(《multi-ris 辅助系统中的联邦学习(federated learning in multi-ris-aided systems),作者:倪万里; 刘元玮;杨照辉;田辉; 沈学民,ieee物联网期刊(卷:9,第9期:1222年6月15日),页:9608-9624,出版日期:2021年11月24日》,网址:https://ieeexplore.ieee.org/document/9626135))。该方法在应用了aircomp的分布式学习框架中,基于aircomp的本地梯度聚合以抑制失真为准则,认为减少聚合本地梯度的失真才能保证分布式学习框架的收敛。具体地,现有的基于失真抑制准则的设备发送功率配置方法大多要求各设备用高发送功率去抵消各设备上行信道的差异影响并抑制接受噪声,以抑制基于aircomp的梯度聚合信号的失真,从而尽量减少基站处接收到的聚合梯度信号的失真与错误。通过分析该方法发现,为抑制失真,需最小化mse。这意味着要尽可能提高基站的归一化因子的取值,而根据对设备发送功率的配置公式,基站归一化因子的上升将导致设备发送功率的增大。这说明 ,现有基于失真抑制准则的设备发送功率配置方法需要设备提高发送功率以最小化mse。

5、现有部分研究工作表明,分布式学习框架中的本地梯度对于模型训练而言具有天然的抗毁性,并不需要被过分精确地传输。还有研究指出,在使用梯度下降算法时,对梯度施加特定的人为干扰反而能加快ai模型训练过程的收敛速度。基于这一发现,由于基于aircomp的梯度聚合信号的失真也是对全局梯度的干扰,因此可以推断人为放大或者利用基于aircomp的梯度聚合信号的失真都可以有助于加快分布式学习框架的收敛速度。所以,现有基于失真抑制准则的设备发送功率配置方法的一个主要缺点就是过于保守,即没有充分利用基于aircomp的梯度聚合信号的失真带来的收敛加速效应。同时,现有基于失真抑制准则的设备发送功率配置方法造成了设备发送功率过高的问题,不符合无线网络中设备发送功率不足、能量预算不足的实际情况,难以实现应用。


技术实现思路

1、本专利技术面向利用空中计算(over-the-air computation,aircomp)技术进行本地梯度聚合的分布式学习框架,旨在提供一种加快分布式学习框架收敛速度的设备发送功率配置方法,以解决现有基于失真抑制准则的设备发送功率配置方法存在的技术问题。

2、本专利技术通过放大基于aircomp的梯度聚合信号的失真,以加快分布式学习框架的收敛速度。通过降低分布式学习框架中各设备的发送功率,进而可在放大空中计算失真的同时节省设备发送功率以及节约分布式学习框架的通信能耗。

3、本专利技术为解决技术问题所采用的技术方案如下:

4、本专利技术提供的一种加快分布式学习框架收敛速度的设备发送功率配置方法,包括以下步骤:

5、步骤s1:建立分布式学习框架;

6、所述分布式学习框架包括:k个设备和1个基站;

7、步骤s2:当进入每一个训练轮次内,各设备获取其到基站的信道增益向量、基站的接收波束赋形配置方案和待发送的本地梯度;

8、步骤s3:各设备以放大空中计算失真为准则,设置自身发送功率,在相同的时频资源上使用所设置的发送功率并发地向基站发送本地梯度;

9、步骤s4:基站基于空中计算技术聚合各设备的本地梯度以获得当前训练轮次的全局梯度,并使用全局梯度更新全局模型。

10、进一步地,所述本地梯度的计算公式为:

11、

12、其中,表示第t个训练轮次设备k的本地梯度,表示梯度算子,表示设备k的本地数据集中的第n个数据样本所对应的损失函数,表示第t个训练轮次基站广播的上一个训练轮次更新后的全局模型,表示第t个训练轮次设备k的本地数据集。

13、进一步地,所述发送功率的计算公式为:

14、

15、其中,表示设备k的发送功率,表示基站的接收波束赋形配置方案,表示设备k到基站的信道增益向量,表示非负的设备功率比例因子,表示共轭转置。

16、进一步地,所述空中计算失真通过全局梯度的均方误差进行度量;所述空中计算的均方误差的计算公式为:

17、

18、其中,表示非负的设备功率比例因子,表示基站归一化因子,表示噪声强度。

19、进一步地,所述放大空中计算失真为准则为:在满足设备功率比例因子与基站归一化因子的比值大于1的前提下,降低设备功率比例因子且同步降低基站归一化因子,使得mse增大,进而放大空中计算本文档来自技高网...

【技术保护点】

1.加快分布式学习框架收敛速度的设备发送功率配置方法,其特征在于,包括以下步骤:

2.根据权利要求1所述的加快分布式学习框架收敛速度的设备发送功率配置方法,其特征在于,所述本地梯度的计算公式为:

3.根据权利要求1所述的加快分布式学习框架收敛速度的设备发送功率配置方法,其特征在于,所述发送功率的计算公式为:

4.根据权利要求1所述的加快分布式学习框架收敛速度的设备发送功率配置方法,其特征在于,所述空中计算失真通过全局梯度的均方误差进行度量;所述空中计算的均方误差的计算公式为:

5.根据权利要求1所述的加快分布式学习框架收敛速度的设备发送功率配置方法,其特征在于,所述放大空中计算失真为准则为:在满足设备功率比例因子与基站归一化因子的比值大于1的前提下,降低设备功率比例因子且同步降低基站归一化因子,使得MSE增大,进而放大空中计算失真。

6.根据权利要求1所述的加快分布式学习框架收敛速度的设备发送功率配置方法,其特征在于,所述全局梯度的计算公式为:

7.根据权利要求6所述的加快分布式学习框架收敛速度的设备发送功率配置方法,其特征在于,基于设备k的发送功率的配置方案,第t个训练轮次基站聚合的全局梯度进一步表示为:

8.根据权利要求1所述的加快分布式学习框架收敛速度的设备发送功率配置方法,其特征在于,所述基站利用梯度下降公式更新全局模型:

9.根据权利要求1所述的加快分布式学习框架收敛速度的设备发送功率配置方法,其特征在于,所述分布式学习框架收敛速度定义为相邻两个训练轮次之间全局损失函数的下降值的期望;所述分布式学习框架收敛速度的数学表达式为:

10.根据权利要求9所述的加快分布式学习框架收敛速度的设备发送功率配置方法,其特征在于,所述第t个训练轮次的全局损失函数的数学表达式为:

...

【技术特征摘要】

1.加快分布式学习框架收敛速度的设备发送功率配置方法,其特征在于,包括以下步骤:

2.根据权利要求1所述的加快分布式学习框架收敛速度的设备发送功率配置方法,其特征在于,所述本地梯度的计算公式为:

3.根据权利要求1所述的加快分布式学习框架收敛速度的设备发送功率配置方法,其特征在于,所述发送功率的计算公式为:

4.根据权利要求1所述的加快分布式学习框架收敛速度的设备发送功率配置方法,其特征在于,所述空中计算失真通过全局梯度的均方误差进行度量;所述空中计算的均方误差的计算公式为:

5.根据权利要求1所述的加快分布式学习框架收敛速度的设备发送功率配置方法,其特征在于,所述放大空中计算失真为准则为:在满足设备功率比例因子与基站归一化因子的比值大于1的前提下,降低设备功率比例因子且同步降低基站归一化因子,使得mse增大,进而放大空中计算失真。

【专利技术属性】
技术研发人员:田辉郑景桁张新田洋吴智泉孙浩峰
申请(专利权)人:北京邮电大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1