System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind()
【技术实现步骤摘要】
本专利技术属于通信,具体涉及一种加快分布式学习框架收敛速度的设备发送功率配置方法。
技术介绍
1、无线网络中的分布式学习框架包含一个基站与多个设备,其中基站具有全局模型,而各设备具有本地数据集和全局模型的副本。分布式学习框架的流程分为多个轮次,在每个轮次,各设备使用本地数据集中的数据和全局模型的副本计算本地梯度;进而,各设备将本地梯度上传基站进行聚合,以产生全局梯度;接着,基站使用聚合产生的全局梯度更新全局模型;最后,基站将更新后的全局模型下发给各设备,以更新各设备的全局模型副本。上述过程重复多个轮次,直到基站的全局模型达到收敛,即全局模型的性能收敛到某预定标准,或者达到最大允许的轮次数量。
2、使用空中计算(over-the-air computation,aircomp)技术的多个发送端在相同的时频资源上并发传输信号,利用无线信道的叠加特性完成信号层面的计算,使得接收端直接接收到各发送端所发送信号的计算结果。在分布式学习框架中,该技术常用于在基站处聚合来自各设备的本地梯度。
3、梯度下降算法是一种用于训练人工智能(artificial intelligence,ai)模型的基础算法。在该算法中,首先,利用数据样本和ai模型计算得到梯度;随后,利用待更新ai模型的参数减去学习率与梯度的乘积,得到更新后的ai模型。在分布式学习框架中,该算法被用于在基站处更新全局模型。
4、与本专利技术最接近的现有技术为基于失真抑制准则(即以最小化aircomp聚合梯度信号的均方误差(mean square e
5、现有部分研究工作表明,分布式学习框架中的本地梯度对于模型训练而言具有天然的抗毁性,并不需要被过分精确地传输。还有研究指出,在使用梯度下降算法时,对梯度施加特定的人为干扰反而能加快ai模型训练过程的收敛速度。基于这一发现,由于基于aircomp的梯度聚合信号的失真也是对全局梯度的干扰,因此可以推断人为放大或者利用基于aircomp的梯度聚合信号的失真都可以有助于加快分布式学习框架的收敛速度。所以,现有基于失真抑制准则的设备发送功率配置方法的一个主要缺点就是过于保守,即没有充分利用基于aircomp的梯度聚合信号的失真带来的收敛加速效应。同时,现有基于失真抑制准则的设备发送功率配置方法造成了设备发送功率过高的问题,不符合无线网络中设备发送功率不足、能量预算不足的实际情况,难以实现应用。
技术实现思路
1、本专利技术面向利用空中计算(over-the-air computation,aircomp)技术进行本地梯度聚合的分布式学习框架,旨在提供一种加快分布式学习框架收敛速度的设备发送功率配置方法,以解决现有基于失真抑制准则的设备发送功率配置方法存在的技术问题。
2、本专利技术通过放大基于aircomp的梯度聚合信号的失真,以加快分布式学习框架的收敛速度。通过降低分布式学习框架中各设备的发送功率,进而可在放大空中计算失真的同时节省设备发送功率以及节约分布式学习框架的通信能耗。
3、本专利技术为解决技术问题所采用的技术方案如下:
4、本专利技术提供的一种加快分布式学习框架收敛速度的设备发送功率配置方法,包括以下步骤:
5、步骤s1:建立分布式学习框架;
6、所述分布式学习框架包括:k个设备和1个基站;
7、步骤s2:当进入每一个训练轮次内,各设备获取其到基站的信道增益向量、基站的接收波束赋形配置方案和待发送的本地梯度;
8、步骤s3:各设备以放大空中计算失真为准则,设置自身发送功率,在相同的时频资源上使用所设置的发送功率并发地向基站发送本地梯度;
9、步骤s4:基站基于空中计算技术聚合各设备的本地梯度以获得当前训练轮次的全局梯度,并使用全局梯度更新全局模型。
10、进一步地,所述本地梯度的计算公式为:
11、
12、其中,表示第t个训练轮次设备k的本地梯度,表示梯度算子,表示设备k的本地数据集中的第n个数据样本所对应的损失函数,表示第t个训练轮次基站广播的上一个训练轮次更新后的全局模型,表示第t个训练轮次设备k的本地数据集。
13、进一步地,所述发送功率的计算公式为:
14、
15、其中,表示设备k的发送功率,表示基站的接收波束赋形配置方案,表示设备k到基站的信道增益向量,表示非负的设备功率比例因子,表示共轭转置。
16、进一步地,所述空中计算失真通过全局梯度的均方误差进行度量;所述空中计算的均方误差的计算公式为:
17、
18、其中,表示非负的设备功率比例因子,表示基站归一化因子,表示噪声强度。
19、进一步地,所述放大空中计算失真为准则为:在满足设备功率比例因子与基站归一化因子的比值大于1的前提下,降低设备功率比例因子且同步降低基站归一化因子,使得mse增大,进而放大空中计算本文档来自技高网...
【技术保护点】
1.加快分布式学习框架收敛速度的设备发送功率配置方法,其特征在于,包括以下步骤:
2.根据权利要求1所述的加快分布式学习框架收敛速度的设备发送功率配置方法,其特征在于,所述本地梯度的计算公式为:
3.根据权利要求1所述的加快分布式学习框架收敛速度的设备发送功率配置方法,其特征在于,所述发送功率的计算公式为:
4.根据权利要求1所述的加快分布式学习框架收敛速度的设备发送功率配置方法,其特征在于,所述空中计算失真通过全局梯度的均方误差进行度量;所述空中计算的均方误差的计算公式为:
5.根据权利要求1所述的加快分布式学习框架收敛速度的设备发送功率配置方法,其特征在于,所述放大空中计算失真为准则为:在满足设备功率比例因子与基站归一化因子的比值大于1的前提下,降低设备功率比例因子且同步降低基站归一化因子,使得MSE增大,进而放大空中计算失真。
6.根据权利要求1所述的加快分布式学习框架收敛速度的设备发送功率配置方法,其特征在于,所述全局梯度的计算公式为:
7.根据权利要求6所述的加快分布式学习框架收敛速度的设备发送功率
8.根据权利要求1所述的加快分布式学习框架收敛速度的设备发送功率配置方法,其特征在于,所述基站利用梯度下降公式更新全局模型:
9.根据权利要求1所述的加快分布式学习框架收敛速度的设备发送功率配置方法,其特征在于,所述分布式学习框架收敛速度定义为相邻两个训练轮次之间全局损失函数的下降值的期望;所述分布式学习框架收敛速度的数学表达式为:
10.根据权利要求9所述的加快分布式学习框架收敛速度的设备发送功率配置方法,其特征在于,所述第t个训练轮次的全局损失函数的数学表达式为:
...【技术特征摘要】
1.加快分布式学习框架收敛速度的设备发送功率配置方法,其特征在于,包括以下步骤:
2.根据权利要求1所述的加快分布式学习框架收敛速度的设备发送功率配置方法,其特征在于,所述本地梯度的计算公式为:
3.根据权利要求1所述的加快分布式学习框架收敛速度的设备发送功率配置方法,其特征在于,所述发送功率的计算公式为:
4.根据权利要求1所述的加快分布式学习框架收敛速度的设备发送功率配置方法,其特征在于,所述空中计算失真通过全局梯度的均方误差进行度量;所述空中计算的均方误差的计算公式为:
5.根据权利要求1所述的加快分布式学习框架收敛速度的设备发送功率配置方法,其特征在于,所述放大空中计算失真为准则为:在满足设备功率比例因子与基站归一化因子的比值大于1的前提下,降低设备功率比例因子且同步降低基站归一化因子,使得mse增大,进而放大空中计算失真。
【专利技术属性】
技术研发人员:田辉,郑景桁,张新,田洋,吴智泉,孙浩峰,
申请(专利权)人:北京邮电大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。