通信高效的无中心分布式优化训练方法、装置及设备制造方法及图纸

技术编号:40548266 阅读:35 留言:0更新日期:2024-03-05 19:06
本公开涉及机器学习技术领域,具体涉及一种通信高效的无中心分布式优化训练方法、装置及设备,该方法包括:基于无中心分布式网络的无向网络拓扑结构,获取双随机混合矩阵;基于系统网络带宽和设备计算资源,确定满足相对压缩误差条件的目标通信压缩算法;获取本地更新参数、训练参数以及第i个节点的初始化变量;基于双随机混合矩阵、目标通信压缩算法、本地更新参数和训练参数以及初始化变量,对第i个节点的原始变量进行迭代训练;在满足训练停止条件时,得到训练完成后的第i个节点的原始变量。该方案在利用通信压缩减少通信比特数的同时,可以通过本地更新控制通信相对频率,有效降低了模型训练通信开销,提升了模型训练效率。

【技术实现步骤摘要】

本公开涉及机器学习,具体涉及一种通信高效的无中心分布式优化训练方法、装置及设备


技术介绍

1、大模型的异军突起,使得高效训练模型显得愈发重要。近年来,无中心分布式模型训练方法逐渐成为研究的热点,由于它可以解决将大量数据分布式存储在不同设备中的隐私泄露和高昂通信代价的问题。这种方法不依赖中心节点进行协调,而是通过节点之间的有限信息交换和自主训练来实现。无中心分布式训练的优势主要体现在以下几个方面:(1)通信代价低:相比于将所有数据传输到集中的数据中心,无中心分布式模型训练只需要节点之间进行有限的信息交换,有效减少了通信代价;(2)隐私保护能力强:由于数据不必离开节点,无中心分布式模型训练可以在保护用户隐私的前提下进行,即每个节点只需要共享部分训练结果,而不需要共享原始数据;(3)适合实时应用:无中心分布式模型训练可以在节点之间进行实时的信息交换和训练,而不需要依赖主节点的调度,从而使得其适用于需要实时响应的应用场景,如边缘计算和物联网等。

2、无中心分布式模型训练的优化算法一直是学术界的关注焦点。然而,由于每个节点都独立存储一份数据,这些数据的本文档来自技高网...

【技术保护点】

1.一种通信高效的无中心分布式优化训练方法,其特征在于,所述方法包括:

2.根据权利要求1所述的方法,其特征在于,所述训练参数包括学习步长,所述初始化变量包括初始对偶变量、初始辅助变量和初始混合辅助变量,所述本地更新参数包括本地更新步长和本地更新步数;

3.根据权利要求2所述的方法,其特征在于,所述训练参数还包括一致性步长;所述基于所述双随机混合矩阵、所述目标通信压缩算法、更新后的本地更新变量、所述初始辅助变量和所述初始混合辅助变量,对所述第i个节点的原始变量进行扩散传播,以得到所述第i个节点更新后的原始变量,包括:

4.根据权利要求2所述的方法,其特...

【技术特征摘要】

1.一种通信高效的无中心分布式优化训练方法,其特征在于,所述方法包括:

2.根据权利要求1所述的方法,其特征在于,所述训练参数包括学习步长,所述初始化变量包括初始对偶变量、初始辅助变量和初始混合辅助变量,所述本地更新参数包括本地更新步长和本地更新步数;

3.根据权利要求2所述的方法,其特征在于,所述训练参数还包括一致性步长;所述基于所述双随机混合矩阵、所述目标通信压缩算法、更新后的本地更新变量、所述初始辅助变量和所述初始混合辅助变量,对所述第i个节点的原始变量进行扩散传播,以得到所述第i个节点更新后的原始变量,包括:

4.根据权利要求2所述的方法,其特征在于,所述基于所述双随机混合矩阵、所述目标通信压缩算法、所述本地更新参数和所述训练参数以及...

【专利技术属性】
技术研发人员:廖义伟濮实
申请(专利权)人:深圳市大数据研究院
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1