当前位置: 首页 > 专利查询>山东大学专利>正文

适用于边缘物联代理装置的异步去中心化模型训练方法制造方法及图纸

技术编号:34641390 阅读:20 留言:0更新日期:2022-08-24 15:16
本发明专利技术公开了一种适用于边缘物联代理装置的异步去中心化模型训练方法,包括以下步骤:每个边缘物联代理装置从用户终端收集数据,并进行初始化;计算损失函数值,进而根据损失函数值进行反向传播得到梯度,再利用随机梯度下降公式进行模型更新;利用差分隐私机制对更新后的模型进行数据隐私保护;每个边缘物联代理装置将模型发送给邻居,并且接收邻居模型,在接收到邻居模型时更新本地缓冲池;利用本地缓冲池中的模型进行聚合,得到下一次迭代模型。本发明专利技术所公开的训练方法通过去中心化降低了带宽需求也提高了算法的鲁棒性,通过异步的方式加速了训练也提高了资源利用率;同时利用差分隐私技术实现了对本地数据隐私的保护,有效防止隐私泄露。有效防止隐私泄露。有效防止隐私泄露。

【技术实现步骤摘要】
适用于边缘物联代理装置的异步去中心化模型训练方法


[0001]本专利技术属于分布式机器学习领域,特别涉及一种适用于边缘物联代理装置的异步去中心化模型训练方法。

技术介绍

[0002]分布式机器学习是指将数据分布在不同的机器上进行并行大规模机器学习训练的计算技术。基于参数服务器的架构是一种基础的分布式模型,每一个客户端根据自己本地的数据进行梯度计算然后发送给服务器,服务器进行模型聚合然后将全局模型发送给各个客户端进行下一轮的梯度计算。这种架构突破了单机训练的瓶颈并且能够处理更大规模的数据,但是具有较低的鲁棒性。首先,这种架构受限于参数服务器的带宽和性能,当参数服务器宕机或者受损时,整个训练过程将会终止,直到服务器正常工作。其次,每一个客户端需要等待其他的客户端训练完成,将模型发送给参数服务器后才能进入下一轮训练,因此,基于参数服务器架构的性能受限于客户端的最差性能,会造成训练资源的浪费。
[0003]去中心化的机器学习能够有效的解决上述问题。在去中心化的架构下,所有的客户端组成一个点对点的网络,每个客户端拥有自己的数据和模型。在每一轮训练中,每个客户端使用自己的数据进行梯度计算,然后与相连的邻居客户端进行模型的共享,并且计算一个局部平均模型。每一个客户端只需要和相连的邻居客户端进行通信,并且更新自己的模型,任何一个客户端的宕机或者错误都只会影响一部分机器的训练,因此,去中心化的机器学习对通信瓶颈和边缘设备故障等问题有着更高的鲁棒性。
[0004]去中心化机器学习的架构与边缘计算存在极大的耦合性,可以应用到边缘计算的诸多领域。如在智能电网领域,电力负载智能预测需要用到多地的电力,将每个区域的用电数据上传到本地的边缘设备进行合作训练得到一个全局的预测模型;又比如在智能巡检系统中需要一个机器学习模型能够判断所巡检的电路或者设备是否出现故障,然而不同场景地区的故障信息是不同的,而且数据将会来源于大量的不同区域的巡检设备。因此,可以利用巡检机器人进行数据采集,然后上传到本地的边缘设备协作训练一个全局的能够覆盖各种故障信息的模型。边缘计算本质上即提供去中心化的服务,去中心化合作训练在边缘计算领域具有空前优势。
[0005]尽管相比于参数服务器架构的算法,去中心化的合作训练算法具有很多优势,但是其仍然具有一定的缺点。正如上述介绍,在每一轮的训练中,每一个客户端需要与邻居的客户端进行通信并且共享模型数据。因此,任何一个客户端都需要同步的等待其所有邻居节点训练完成,且成功收到模型才能进行下一轮训练,这在一定程度上会造成资源的浪费。另外,通信过程中的数据隐私也需要能够进一步得到保证。

技术实现思路

[0006]为解决上述技术问题,本专利技术提供了一种适用于边缘物联代理装置的异步去中心化模型训练方法,通过去中心化降低了带宽需求也提高了算法的鲁棒性,通过异步的方式
加速了训练也提高了资源利用率;同时利用差分隐私技术实现了对本地数据隐私的保护。
[0007]为达到上述目的,本专利技术的技术方案如下:
[0008]一种适用于边缘物联代理装置的异步去中心化模型训练方法,包括以下步骤:
[0009](1)初始化阶段:每个边缘物联代理装置从用户终端收集数据,对数据进行预处理得到样本数据集,并初始化本地模型和本地缓冲池;
[0010](2)模型更新阶段:每个边缘物联代理装置计算样本数据集的损失函数值,进而根据损失函数值进行反向传播得到梯度;再利用随机梯度下降公式进行模型更新;
[0011](3)隐私保护阶段:每个边缘物联代理装置利用差分隐私机制对更新后的模型引入定量的噪声进行数据隐私保护,得到加躁处理的模型;
[0012](4)模型共享阶段:每个边缘物联代理装置将加噪处理的模型发送给邻居边缘物联代理装置,并且接收来自邻居边缘物联代理装置的模型,在接收到邻居模型时更新到本地缓冲池;
[0013](5)模型聚合阶段:每个边缘物联代理装置利用本地缓冲池中的模型进行聚合,得到下一次迭代模型,并返回步骤(2),直到满足最大迭代轮数后输出模型。
[0014]上述方案中,步骤(1)初始化的参数包括:总迭代次数K、学习率γ、权重矩阵W、噪声的方差σ、边缘物联代理装置的个数n、边缘物联代理装置i的初始化模型和初始化本地缓冲池变量样本数据集D
i
,以及损失函数,损失函数采用交叉熵损失函数F(
·
)。
[0015]上述方案中,步骤(2)具体如下:
[0016](2.1)在第k轮迭代中,边缘物联代理装置i从其样本数据集D
i
中随机采样一条数据样本并存入内存中,表示样本特征,表示样本标签,其中,d是样本特征的维度,R
d
代表d维实数空间;
[0017](2.2)边缘物联代理装置i利用AI模块对本地模型进行训练,即将获得的样本中的样本特征输入到第k轮的模型中,得到预测值y
pred

[0018](2.3)将样本标签和预测值y
pred
输入到交叉熵损失函数,即根据如下公式得到损失函数值:
[0019][0020](2.4)根据反向传播求导得到损失函数关于模型的梯度然后使用随机梯度下降公式更新参数,得到更新后的模型
[0021][0022]其中,γ为学习率。
[0023]上述方案中,步骤(3)具体如下:
[0024](3.1)根据初始化的噪声方差σ,从d维的方差为σ的高斯分布中采样一个d维向量得到噪声向量
[0025](3.2)将采样的噪声向量加入到更新后的模型中,得到加躁处理的模型
[0026][0027]上述方案中,步骤(4)具体如下:
[0028](4.1)边缘物联代理装置i使用上行的通信接口和网络协议将自己的加躁处理的模型发送给邻居边缘物联代理装置j;
[0029](4.2)边缘物联代理装置i使用上行的通信接口和网络协议接收来自邻居边缘物联代理装置j的加躁处理的模型并将模型保存到自己的缓冲池中,则更新后的缓冲池变量
[0030]上述方案中,步骤(5)具体如下:
[0031]使用初始化的权重矩阵W来对缓冲池的模型数据进行聚合,即对于边缘物联代理装置i执行模型聚合得到下一轮的模型数据:
[0032][0033]其中,W
ij
表示第i行第j列的元素,其代表边缘物联代理装i接收到边缘物联代理装j的模型时赋予的权重。
[0034]通过上述技术方案,本专利技术提供的一种适用于边缘物联代理装置的异步去中心化模型训练方法具有如下有益效果:
[0035](1)本专利技术的每个边缘物联代理装置初始化一个缓冲池用来接受来自邻居边缘物联代理装置的模型数据,当成功收到邻居的数据时更新缓冲池中的变量,最后使用缓冲池中的变量进行模型的聚合;通过异步的方式,任何一个边缘物联代理装置都可以直接使用缓冲池中的模型数据进行聚合,不在需要等待其他边缘物联代理装置训练完成。这将能够大幅度提升模型训练的本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种适用于边缘物联代理装置的异步去中心化模型训练方法,其特征在于,包括以下步骤:(1)初始化阶段:每个边缘物联代理装置从用户终端收集数据,对数据进行预处理得到样本数据集,并初始化本地模型和本地缓冲池;(2)模型更新阶段:每个边缘物联代理装置计算样本数据集的损失函数值,进而根据损失函数值进行反向传播得到梯度;再利用随机梯度下降公式进行模型更新;(3)隐私保护阶段:每个边缘物联代理装置利用差分隐私机制对更新后的模型引入定量的噪声进行数据隐私保护,得到加躁处理的模型;(4)模型共享阶段:每个边缘物联代理装置将加噪处理的模型发送给邻居边缘物联代理装置,并且接收来自邻居边缘物联代理装置的模型,在接收到邻居模型时更新到本地缓冲池;(5)模型聚合阶段:每个边缘物联代理装置利用本地缓冲池中的模型进行聚合,得到下一次迭代模型,并返回步骤(2),直到满足最大迭代轮数后输出模型。2.根据权利要求1所述的一种适用于边缘物联代理装置的异步去中心化模型训练方法,其特征在于,步骤(1)初始化的参数包括:总迭代次数K、学习率γ、权重矩阵W、噪声的方差σ、边缘物联代理装置的个数n、边缘物联代理装置i的初始化模型和初始化本地缓冲池变量样本数据集D
i
,以及损失函数,损失函数采用交叉熵损失函数F(
·
)。3.根据权利要求1所述的一种适用于边缘物联代理装置的异步去中心化模型训练方法,其特征在于,步骤(2)具体如下:(2.1)在第k轮迭代中,边缘物联代理装置i从其样本数据集D
i
中随机采样一条数据样本并存入内存中,表示样本特征,表示样本标签,其中,d是样本特征的维度,R
d
代表d维实数...

【专利技术属性】
技术研发人员:于东晓张良旭陈姝祯邹逸飞王鹏杜超
申请(专利权)人:山东大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1