基于联邦学习的模型训练方法和联邦学习系统技术方案

技术编号:35590685 阅读:15 留言:0更新日期:2022-11-16 15:07
公开了一种基于联邦学习的模型训练方法和联邦学习系统。所述方法应用于包括服务器与N个节点的联邦学习系统,N>1,并且包括:在模型训练的第i次操作中,执行:服务器将模型参数集合下发给M

【技术实现步骤摘要】
基于联邦学习的模型训练方法和联邦学习系统


[0001]本公开涉及机器学习领域,尤其涉及一种基于联邦学习的模型训练方法和联邦学习系统。

技术介绍

[0002]近年来,人工智能迎来了新一波的发展高潮,机器学习在其中扮演了核心角色。为了训练一个表现良好的机器学习模型,需要采集大量高质量的数据。但在大量应用场景中,隐私保护使得无法从用户收集隐私数据到服务器进行集中模型训练,这对机器学习的广泛应用造成障碍。
[0003]为此,能够让参与方在不泄露数据的前提下协同训练一个模型从而克服数据隐私问题的多方联合建模被提出。多方联合建模中一个重要且普遍的场景是联邦学习(FL)。在联邦学习下,用户在本地使用数据按照既定的算法求得模型的更新值(即,梯度),将更新值反馈给服务器,从而避免本地训练数据被外界知晓。然而,业已发现服务器能够利用特定用户上传的梯度来逆转恢复出该用户的本地训练数据。
[0004]为此,需要一种能够保护联邦学习用户的本地训练数据安全的模型训练方法。

技术实现思路

[0005]本公开要解决的一个技术问题是提供一种基于联邦训练的模型训练方法,它通过巧妙构造与梯度相关的理论上派生的性能维护指标和隐私保护指标,并进行联合优化,能够实现接近“理想”变换梯度的性能维持、隐私保护和实用性的属性。
[0006]根据本公开的第一个方面,提供了一种基于联邦学习的模型训练方法,应用于包括服务器与N个节点的联邦学习系统,N>1,所述方法包括:在模型训练的第i次操作中,执行:所述服务器将模型参数集合下发给M
i
个节点,其中,M
i
≤N,M
i
个节点各自使用本地训练样本执行梯度计算以获取原始梯度,并且对与所述原始梯度相关的性能维持指标和隐私保护指标进行联合优化,以求取变换梯度δ
*mi
,其中,m=1,2,

,M
i
;以及所述服务器获取变换梯度δ
*mi
并更新模型参数集合。
[0007]可选地,所述性能维持指标表征所述变换梯度δ
*mi
维持模型训练收敛的性能并且是所述原始梯度的函数;以及所述隐私保护指标表征从求取的变换梯度δ
*mi
推出本地训练样本数据的难易度并且是所述原始梯度的函数;
[0008]可选地,使用所述性能维持指标表征变换梯度δ
*mi
相距所述原始梯度的距离。
[0009]可选地,使用所述隐私保护指标限制从求取的变换梯度δ
*mi
推出的本地训练样本数据x
*mi
相距原始本地训练样本数据x
mi
的距离下界。
[0010]可选地,通过调节所述联合优化中的所述性能维持指标和所述隐私保护指标权重来调整所述距离下界。
[0011]可选地,对与所述梯度相关的性能维持指标和隐私保护指标进行联合优化,以求取变换梯度δ
*mi
包括:迭代计算以求取满足所述性能维持指标和所述隐私保护指标限制条
件下的变换梯度δ
*mi
的优化解。
[0012]可选地,求取变换梯度δ
*mi
的优化解的迭代计算起始点为所述原始梯度。
[0013]可选地,所述模型训练的第i次操作包括:所述模型训练的第i批次数据训练操作。
[0014]根据本公开的第二个方面,提供了一种联邦学习系统,包括服务器与N个节点,N>1;所述服务器,在模型训练的第i次操作中将模型参数集合下发给M
i
个节点,其中,M
i
≤N,所述M
i
个节点,各自使用本地训练样本执行梯度计算以获取原始梯度,并且对与所述原始梯度相关的性能维持指标和隐私保护指标进行联合优化,以求取变换梯度δ
*mi
,其中,m=1,2,

,M
i
;以及所述服务器还获取变换梯度δ
*mi
并更新模型参数集合。
[0015]根据本公开的第三个方面,提供了10.一种基于联邦学习的模型训练方法,应用于联邦学习系统中的节点,所述联邦学习系统包括N个节点与服务器,N>1;所述方法包括:在模型训练的第i次操作中,执行:获取所述服务器下发的模型参数集合;使用本地训练样本执行梯度计算以获取原始梯度;以及对与所述原始梯度相关的性能维持指标和隐私保护指标进行联合优化,以求取变换梯度;以及向所述服务器上传所述变换梯度,以供所述服务器连同其他节点上传的变换梯度来更新模型参数集合,其中,在该第i次操作中,所述服务器将模型参数集合下发给包括当前节点和所述其他节点在内的M
i
个节点,其中,M
i
≤N。
[0016]根据本公开的第四个方面,提供了一种计算设备,包括:处理器;以及存储器,其上存储有可执行代码,当可执行代码被处理器执行时,使处理器执行如上述第三方面所述的方法。
[0017]根据本公开的第五个方面,提供了一种非暂时性机器可读存储介质,其上存储有可执行代码,当可执行代码被电子设备的处理器执行时,使处理器执行如上述第三方面所述的方法。
[0018]由此,性能维持指标能够度量模型性能变化,而隐私保护指标则能够度量隐私泄露风险。通过联合优化这两个指标,本专利技术可以评估数据隐私被稳妥保护并且模型性能劣化最小的扰动点。考虑到防御带来的额外开销在实际操作中至关重要,本专利技术还可以通过改进的初始化策略来加速联合优化的收敛。
附图说明
[0019]通过结合附图对本公开示例性实施方式进行更详细的描述,本公开的上述以及其它目的、特征和优势将变得更加明显,其中,在本公开示例性实施方式中,相同的参考标号通常代表相同部件。
[0020]图1示出了联邦学习的训练过程示意图。
[0021]图2示出了梯度泄露攻击的一个例子。
[0022]图3示出了客户端进行防御时联邦学习的训练过程示意图。
[0023]图4示出了根据本专利技术一个实施例的基于联邦学习的模型训练方法的示意性流程图。
[0024]图5示出了执行本专利技术的模型训练方法的联邦学习系统的组成示意图。
[0025]图6示出了根据本专利技术一实施例可用于实现上述基于联邦学习的模型训练方法的计算设备的结构示意图。
[0026]图7示出了本专利技术的原理说明图。
具体实施方式
[0027]下面将参照附图更详细地描述本公开的优选实施方式。虽然附图中显示了本公开的优选实施方式,然而应该理解,可以以各种形式实现本公开而不应被这里阐述的实施方式所限制。相反,提供这些实施方式是为了使本公开更加透彻和完整,并且能够将本公开的范围完整地传达给本领域的技术人员。
[0028]机器学习模型在能进行较为准确的推理之前需要训练。例如,在部署使用诸如卷积神经网络(CNN)的深度学习模型进行推理(例如,为输入图片分类)之前,首先需要对网络模型进行训练。<本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于联邦学习的模型训练方法,应用于包括服务器与N个节点的联邦学习系统,N>1,所述方法包括:在模型训练的第i次操作中,执行:所述服务器将模型参数集合下发给M
i
个节点,其中,M
i
≤N,M
i
个节点各自使用本地训练样本执行梯度计算以获取原始梯度,并且对与所述原始梯度相关的性能维持指标和隐私保护指标进行联合优化,以求取变换梯度δ
*mi
,其中,m=1,2,

,M
i
;以及所述服务器获取变换梯度δ
*mi
并更新模型参数集合。2.如权利要求1所述的方法,其中,所述性能维持指标表征所述变换梯度δ
*mi
维持模型训练收敛的性能并且是所述原始梯度的函数;以及所述隐私保护指标表征从求取的变换梯度δ
*mi
推出本地训练样本数据的难易度并且是所述原始梯度的函数。3.如权利要求2所述的方法,其中,使用所述性能维持指标表征变换梯度δ
*mi
相距所述原始梯度的距离。4.如权利要求2所述的方法,其中,使用所述隐私保护指标限制从求取的变换梯度δ
*mi
推出的本地训练样本数据x
*mi
相距原始本地训练样本数据x
mi
的距离下界。5.如权利要求4所述的方法,其中,通过调节所述联合优化中的所述性能维持指标和所述隐私保护指标权重来调整所述距离下界。6.如权利要求1所述的方法,其中,对与所述梯度相关的性能维持指标和隐私保护指标进行联合优化,以求取变换梯度δ
*mi
包括:迭代计算以求取满足所述性能维持指标和所述隐私保护指标限制条件下的变换梯度δ
*mi
的优化解。7.如权利要求6所述的方...

【专利技术属性】
技术研发人员:范洺源周文猛
申请(专利权)人:阿里巴巴中国有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1