【技术实现步骤摘要】
本专利技术属于云-边-端协同训练,涉及一种面向异构资源和数据的高效分层联邦学习方法。
技术介绍
1、“云-边-端”协同的分层联邦学习(hfl)通过在本地设备上进行模型训练,并在服务器上进行模型的共享聚合,避免了集中式数据的传输。hfl能够在大量用户之间完成分布式机器学习训练,而不需要与外部设备共享本地私有的数据集,可以实现在保护数据隐私的同时,利用设备端的本地计算资源进行模型训练。hfl的具体训练过程包括:中央服务器初始化全局模型并下发给各个参与训练的移动设备md,移动设备md在本地对全局模型进行训练,并将训练更新后的模型梯度上传至边缘服务器es进行部分聚合,最后将聚合的模型上传至云服务器cs进行全局聚合,并更新全局模型。通过将整个流程进行迭代循环,直到全局模型收敛或达到预定轮次,实现协同学习的目标。
2、然而,将hfl运用到实际的分布式存储计算环境中时,会面临多个方面的挑战。第一个挑战是大规模参与设备存在高度资源异构和数据异构问题。一方面,hfl过程涉及大规模的移动设备md,同时各个移动设备md在硬件、网络环境和计算能力上
...【技术保护点】
1.一种面向异构资源和数据的高效分层联邦学习方法,其特征在于,包括:
2.根据权利要求1所述的面向异构资源和数据的高效分层联邦学习方法,其特征在于,所述HFL框架包含一个云服务器CS、M个边缘服务器和N个移动设备;在工作过程中,每个边缘服务器ES都位于覆盖本地部分区域的基站上,服务其覆盖范围内的移动设备MD,并且每个移动设备MD只能连接到一个边缘服务器ES上。
3.根据权利要求2所述的面向异构资源和数据的高效分层联邦学习方法,其特征在于,所述基于移动设备MD处理样本数据的周期数据,获取每个移动设备MD进行本地模型训练的时间,具体为:
【技术特征摘要】
1.一种面向异构资源和数据的高效分层联邦学习方法,其特征在于,包括:
2.根据权利要求1所述的面向异构资源和数据的高效分层联邦学习方法,其特征在于,所述hfl框架包含一个云服务器cs、m个边缘服务器和n个移动设备;在工作过程中,每个边缘服务器es都位于覆盖本地部分区域的基站上,服务其覆盖范围内的移动设备md,并且每个移动设备md只能连接到一个边缘服务器es上。
3.根据权利要求2所述的面向异构资源和数据的高效分层联邦学习方法,其特征在于,所述基于移动设备md处理样本数据的周期数据,获取每个移动设备md进行本地模型训练的时间,具体为:
4.根据权利要求3所述的面向异构资源和数据的高效分层联邦学习方法,其特征在于,所述基于每个移动设备md将本地更新参数模型上传至边缘服务器es的传输速率,获取每个移动设备md向边缘服务器es传输参数模型时的传输时间,具体为:
5.根据权利要求4所述的面向异构资源和数据的高效分层联邦学习方法,其特征在于,所述边缘服务器es利用k-means算法将服务范围内的移动设备md进行分组,并根据计算能力进行排序,具体为:利用移动设备md之间的通信代替移动设备md与边缘服务器es之间的通信;根据计算能力对移动设备md进行预分组,将计算能力相差较小的设备分到同一组,然后利用k-means算法从每组中选择数据分布相似度较小的设备,重分为一组,得到最终的分组结果。
6.根据权利要求4所述的面向异构资...
【专利技术属性】
技术研发人员:梁伟,肖嘉宏,陈宇翔,何大成,阳超逸,杨策,张世文,
申请(专利权)人:湖南科技大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。