面向联邦学习的数据压缩方法和系统技术方案

技术编号:43208085 阅读:40 留言:0更新日期:2024-11-01 20:26
本发明专利技术提供一种面向联邦学习的数据压缩方法和系统。方法包括:中央服务器获取历史状态序列,并将历史状态序列下发至关联的各边缘节点;各边缘节点根据历史状态序列,更新本地模型;各边缘节点使用预存的本地数据集训练更新后的本地模型,得到当前训练轮次的本地状态序列;各边缘节点将本地状态序列和历史状态序列并行排列形成状态对序列,依据预设长度的字典和预设的匹配冗余度,从待编码区中查找与字典中已编码状态对序列匹配的最长待编码状态对序列,并进行编码,依据编码后的状态对更新字典;中央服务器接收各边缘节点上传的编码结果,并进行解码,生成新的历史状态序列。改善了现有技术使用联邦学习时存在的通信瓶颈的问题。

【技术实现步骤摘要】

本专利技术涉及通信领域,特别涉及一种面向联邦学习的数据压缩方法和系统


技术介绍

1、自21世纪伊始,全球已迈入数字化、信息化高速发展的时代。互联网作为引领时代的关键核心技术,促进了物联网等相关技术的崛起,带来了诸如增强现实、自动驾驶、智能监控等新兴应用与技术。这些应用依托智能产品,在日常生产生活中发挥着日益重要的作用,并不断产生大量数据。通过深入研究这些数据,获取数据潜在信息,分析这些信息的内在规律和性质,有助于研发出更加人性化、高效能的新产品,同时通过新产品生成的数据也能为后续的数据研究提供丰富的素材,从而形成一个良性的发展循环。然而,在现实中,常用的移动设备往往难以负担起大规模神经网络模型训练所需的庞大开销,而若是将数据传输到服务器上集中处理,如传统的集中式机器学习,又有泄露用户隐私的风险。因此,如何在保护用户隐私、避免数据泄露的同时,实现高效的数据处理,生成对应模型,完成学习任务,成为了当前亟待解决的难题。

2、在这种情况下,联邦学习被提出。作为分布式机器学习领域的一大突破,联邦学习能够在保证用户隐私不被侵犯的前提之下,命令多个用户在中本文档来自技高网...

【技术保护点】

1.一种面向联邦学习的数据压缩方法,其特征在于,所述方法包括:

2.根据权利要求1所述的面向联邦学习的数据压缩方法,其特征在于,所述历史状态序列为全局梯度序列或全局模型参数序列,当所述历史状态序列为全局梯度序列时,所述本地状态序列为本地梯度序列;当所述历史状态序列为全局模型参数序列时,所述本地状态序列为本地模型参数序列。

3.根据权利要求1所述的面向联邦学习的数据压缩方法,其特征在于,边缘节点使用预存的本地数据集训练更新后的本地模型,得到当前训练轮次的本地状态序列,包括:

4.根据权利要求1所述的面向联邦学习的数据压缩方法,其特征在于,边缘节点将本地状...

【技术特征摘要】

1.一种面向联邦学习的数据压缩方法,其特征在于,所述方法包括:

2.根据权利要求1所述的面向联邦学习的数据压缩方法,其特征在于,所述历史状态序列为全局梯度序列或全局模型参数序列,当所述历史状态序列为全局梯度序列时,所述本地状态序列为本地梯度序列;当所述历史状态序列为全局模型参数序列时,所述本地状态序列为本地模型参数序列。

3.根据权利要求1所述的面向联邦学习的数据压缩方法,其特征在于,边缘节点使用预存的本地数据集训练更新后的本地模型,得到当前训练轮次的本地状态序列,包括:

4.根据权利要求1所述的面向联邦学习的数据压缩方法,其特征在于,边缘节点将本地状态序列和历史状态序列并行排列形成状态对序列,依据预设长度的字典和预设的匹配冗余度,从待编码区中查找与所述字典中已编码状态对序列匹配的最长待编码状态对序列,并进行编码,依据编码后的状态对更新所述字典,包括:

5.根据权利要求4所述的面向联邦学习的数据压缩方法,其特征在于,所述匹配冗余度包括本地匹配冗余度和历史匹配冗余度,所述本地匹配冗余度为:所述历史匹配冗余度为其中,posi为第i轮编码压缩时所述字典的寻找起点,为所述字典中第posi+m个已编码的本地状态,p为第i轮编码压缩时所述待编码区的寻找起点,gp+m为所述待编码区第p+m个待...

【专利技术属性】
技术研发人员:吴幼龙钟慧茹
申请(专利权)人:上海科技大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1