一种面向异构资源和数据的高效分层联邦学习方法技术

技术编号:44821036 阅读:20 留言:0更新日期:2025-03-28 20:10
本发明专利技术属于云‑边‑端协同训练技术领域,公开了一种面向异构资源和数据的高效分层联邦学习方法,包括:将每个边缘服务器ES端的移动设备MD根据计算能力和数据分布进行分组,使得每个组具有最大的数据分布相似性。同时将计算能力强的设备均匀的分布在不同组中,减少组间计算能力的差异性。同时,本发明专利技术设备端采用组内环形顺序训练方法,将训练好的模型传输给下一个连接的设备,减少了与移动设备MD与边缘服务器ES间的通信链路,提高了模型训练的效率。本发明专利技术利用设备之间的通信代替设备与服务器之间的通信,减少了与服务器通信的链路条数,增大了通信带宽,可以实现在减少通信开销的同时增强知识的融合。

【技术实现步骤摘要】

本专利技术属于云-边-端协同训练,涉及一种面向异构资源和数据的高效分层联邦学习方法


技术介绍

1、“云-边-端”协同的分层联邦学习(hfl)通过在本地设备上进行模型训练,并在服务器上进行模型的共享聚合,避免了集中式数据的传输。hfl能够在大量用户之间完成分布式机器学习训练,而不需要与外部设备共享本地私有的数据集,可以实现在保护数据隐私的同时,利用设备端的本地计算资源进行模型训练。hfl的具体训练过程包括:中央服务器初始化全局模型并下发给各个参与训练的移动设备md,移动设备md在本地对全局模型进行训练,并将训练更新后的模型梯度上传至边缘服务器es进行部分聚合,最后将聚合的模型上传至云服务器cs进行全局聚合,并更新全局模型。通过将整个流程进行迭代循环,直到全局模型收敛或达到预定轮次,实现协同学习的目标。

2、然而,将hfl运用到实际的分布式存储计算环境中时,会面临多个方面的挑战。第一个挑战是大规模参与设备存在高度资源异构和数据异构问题。一方面,hfl过程涉及大规模的移动设备md,同时各个移动设备md在硬件、网络环境和计算能力上存在显著差异,这会导本文档来自技高网...

【技术保护点】

1.一种面向异构资源和数据的高效分层联邦学习方法,其特征在于,包括:

2.根据权利要求1所述的面向异构资源和数据的高效分层联邦学习方法,其特征在于,所述HFL框架包含一个云服务器CS、M个边缘服务器和N个移动设备;在工作过程中,每个边缘服务器ES都位于覆盖本地部分区域的基站上,服务其覆盖范围内的移动设备MD,并且每个移动设备MD只能连接到一个边缘服务器ES上。

3.根据权利要求2所述的面向异构资源和数据的高效分层联邦学习方法,其特征在于,所述基于移动设备MD处理样本数据的周期数据,获取每个移动设备MD进行本地模型训练的时间,具体为:

>4.根据权利要求3...

【技术特征摘要】

1.一种面向异构资源和数据的高效分层联邦学习方法,其特征在于,包括:

2.根据权利要求1所述的面向异构资源和数据的高效分层联邦学习方法,其特征在于,所述hfl框架包含一个云服务器cs、m个边缘服务器和n个移动设备;在工作过程中,每个边缘服务器es都位于覆盖本地部分区域的基站上,服务其覆盖范围内的移动设备md,并且每个移动设备md只能连接到一个边缘服务器es上。

3.根据权利要求2所述的面向异构资源和数据的高效分层联邦学习方法,其特征在于,所述基于移动设备md处理样本数据的周期数据,获取每个移动设备md进行本地模型训练的时间,具体为:

4.根据权利要求3所述的面向异构资源和数据的高效分层联邦学习方法,其特征在于,所述基于每个移动设备md将本地更新参数模型上传至边缘服务器es的传输速率,获取每个移动设备md向边缘服务器es传输参数模型时的传输时间,具体为:

5.根据权利要求4所述的面向异构资源和数据的高效分层联邦学习方法,其特征在于,所述边缘服务器es利用k-means算法将服务范围内的移动设备md进行分组,并根据计算能力进行排序,具体为:利用移动设备md之间的通信代替移动设备md与边缘服务器es之间的通信;根据计算能力对移动设备md进行预分组,将计算能力相差较小的设备分到同一组,然后利用k-means算法从每组中选择数据分布相似度较小的设备,重分为一组,得到最终的分组结果。

6.根据权利要求4所述的面向异构资...

【专利技术属性】
技术研发人员:梁伟肖嘉宏陈宇翔何大成阳超逸杨策张世文
申请(专利权)人:湖南科技大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1