当前位置: 首页 > 专利查询>湘江实验室专利>正文

一种基于相互知识转移的联邦学习优化方法技术

技术编号:42121668 阅读:27 留言:0更新日期:2024-07-25 00:39
本发明专利技术实施例中提供了一种基于相互知识转移的联邦学习优化方法,属于计算技术领域,具体包括:存储大模型对应的数据集;在中央服务器通过知识蒸馏将大模型的知识迁移至蒸馏后的学生模型上;将学生模型下发给联邦系统的本地客户端;得到本轮训练后的一代本地模型;通过相互知识转移技术得到该本地客户端本轮训练的二代本地模型;服务器将本地客户端上传的模型进行模型聚合,得到本轮训练的全局模型;将上一轮训练后的全局模型再次下发给联邦系统的各个本地客户端,本地客户端再次利用本地数据集训练本轮的本地模型,进行迭代训练,直至最后一轮训练完成后的全局模型收敛,结束训练过程。通过本发明专利技术的方案,提高了模型性能、泛化能力和安全性。

【技术实现步骤摘要】

本专利技术实施例涉及计算,尤其涉及一种基于相互知识转移的联邦学习优化方法


技术介绍

1、目前,随着计算机硬件技术的不断革新,计算能力不断提升,从单核到多核、从cpu到gpu、再到tpu,硬件设备为大模型的训练和推理提供了强大的支持。这为大模型的兴起提供了必要条件。大模型需要庞大的计算资源来进行参数优化和模型训练,而现代硬件设备的高性能使得这一过程变得更加高效和可行。然而,大模型的发展也面临一些挑战和问题。首先是计算资源的需求和成本的增加。大模型需要大量的计算资源来进行训练和推理,而这些资源的获取和维护成本较高。其次是模型的可解释性和可理解性问题。大模型的参数量巨大,往往难以解释其中的决策过程和推理逻辑,这给模型的应用和评估带来了困难。此外,数据隐私和安全问题也需要引起重视,大模型在处理个人隐私数据时需要采取有效的隐私保护措施。

2、可见,亟需一种能提升模型性能、泛化能力和安全性的基于相互知识转移的联邦学习优化方法。


技术实现思路

1、有鉴于此,本专利技术实施例提供一种基于相互知识转移的联邦学习优本文档来自技高网...

【技术保护点】

1.一种基于相互知识转移的联邦学习优化方法,其特征在于,包括:

2.根据权利要求1所述的方法,其特征在于,所述步骤5具体包括:

3.根据权利要求2所述的方法,其特征在于,所述最小化给定的损失函数的表达式为

4.根据权利要求3所述的方法,其特征在于,所述步骤6具体包括:

5.根据权利要求4所述的方法,其特征在于,所述步骤6中聚合采用的方法为联邦平均算法。

【技术特征摘要】

1.一种基于相互知识转移的联邦学习优化方法,其特征在于,包括:

2.根据权利要求1所述的方法,其特征在于,所述步骤5具体包括:

3.根据权利要求2所述的方法,其特征在于,所述最小...

【专利技术属性】
技术研发人员:杨俊丰傅清爽李彪刘利枚余海航曹文治杨艺张震蒲艺符静王言
申请(专利权)人:湘江实验室
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1