【技术实现步骤摘要】
一种联邦学习方法、装置、电子设备及存储介质
本申请涉及深度神经网络模型训练的
,特别是涉及一种联邦学习方法、装置、电子设备及存储介质。
技术介绍
目前,联邦学习算法的深度神经网络模型训练领域已经应用的越来越广泛。通过联邦学习算法可以在不上传终端训练节点本地原始数据情况下,完成全局模型训练,在训练过程中,终端设备将本地更新的模型参数发送到服务器进行聚合,然后中央服务器对这些参数聚合后重新下发更新终端节点模型完成一轮次训练。然而,当前的联邦学习算法在进行聚合过程中,往往是通过平均的方法,将终端返回参数进行平均之后得到全局模型。而在实际训练过程中,经常面临终端节点数据非均匀分布的情况,通过平均的方法往往会导致模型不易收敛或收敛时间较长,从而导致计算效率下降。
技术实现思路
本申请实施例的目的在于提供一种联邦学习方法、装置、电子设备及存储介质,用以解决联邦学习过程中计算效率下降的问题。具体技术方案如下:本申请实施例的第一方面,首先提供了一种联邦学习方法,应用于服务器,所述服务器用于管理至少两 ...
【技术保护点】
1.一种联邦学习方法,其特征在于,应用于服务器,所述服务器用于管理至少两个终端,所述方法包括:/n初始化并接收各所述终端发送的共享验证数据和本地模型的模型参数,其中,每一终端均运行一本地模型;/n根据各所述终端发送的所述共享验证数据和所述本地模型的模型参数计算各终端的权重;/n根据所述各终端的权重和各所述终端发送的所述本地模型的模型参数进行模型聚合;/n将模型聚合得到的全局模型的模型参数发送至各所述终端,以使各所述终端根据接收到的所述全局模型的模型参数对所述本地模型的参数进行更新。/n
【技术特征摘要】
1.一种联邦学习方法,其特征在于,应用于服务器,所述服务器用于管理至少两个终端,所述方法包括:
初始化并接收各所述终端发送的共享验证数据和本地模型的模型参数,其中,每一终端均运行一本地模型;
根据各所述终端发送的所述共享验证数据和所述本地模型的模型参数计算各终端的权重;
根据所述各终端的权重和各所述终端发送的所述本地模型的模型参数进行模型聚合;
将模型聚合得到的全局模型的模型参数发送至各所述终端,以使各所述终端根据接收到的所述全局模型的模型参数对所述本地模型的参数进行更新。
2.根据权利要求1所述的方法,其特征在于,所述初始化并接收各终端发送的共享验证数据和本地模型的模型参数,包括:
初始化所述全局模型;
将初始化的全局模型发送至各所述终端;
接收各所述终端发送的所述本地数据并进行保存;
接收各所述终端发送的所述共享验证数据和所述本地模型的模型参数。
3.根据权利要求1所述的方法,其特征在于,所述根据各所述终端发送的所述共享验证数据和所述本地模型的模型参数计算各终端的权重,包括:
根据各所述终端发送的所述共享验证数据计算各所述终端的准确率;
获取各所述终端的历史准确率,并根据各所述终端的准确率和各所述终端的历史准确率,计算各所述终端的准确率平均值;
根据各所述终端的准确率和各所述终端的准确率平均值,计算各所述终端的准确率进步值;
根据各所述终端的准确率进步值计算各所述终端的权重。
4.根据权利要求3所述的方法,其特征在于,所述根据各所述终端发送的所述共享验证数据计算各所述终端的准确率,包括:
根据各所述终端发送的所述共享验证数据,通过预设公式:
计算各所述终端的准确率,其中,所述共享验证数据中包括测试数据xi,代表测试数据xi在当前模型下的预测结果,代表当前模型对共享验证数据中测试数据xi的预测结果是否与对应数据的标签yi一致,一致为1,不一致取值为0,number(Dtest)为测试数据Dtest的条数,为n个终端在t轮次的准确率;
所述获取各所述终端的历史准确率,并根据各所述终端的准确率和各所述终端的历史准确率,计算各所述终端的准确率平均值,包括:
通过预设公式:
计算各终端的历史准确率,其中,为n个终端在t轮次的历史准确率,N为参与的终端的数量,m为截尾系数,为第i个终端在t轮次的准确率;
根据各所述终端的准确率和各终端的历史准确率,通过预设公式:
计算各所述终端的准确率平均值,其中,为n个终端在t轮次的准确率平均值,为n个终端在t-1轮次的历史准确率;
所述根据各所述终端的准确率和各所述终端的准确率平均值,计算各所述终端的准确率进步值,包括:
根据各所述终端的准确率和各所述终端的准确率平均值,通过预设公式:
计算各所述终端的准确率进步值,其中,Rn为准确率进步值,σt表示终端是否参与t轮次的训练,参与为1,不参与为0,T...
【专利技术属性】
技术研发人员:高志鹏,邱晨豪,杨杨,张瀛瀚,赵晨,莫梓嘉,
申请(专利权)人:北京邮电大学,
类型:发明
国别省市:北京;11
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。