一种基于联邦学习的神经网络协同过滤推荐方法技术

技术编号:33455572 阅读:42 留言:0更新日期:2022-05-19 00:38
一种基于联邦学习的神经网络协同过滤推荐方法,无需集中收集用户的个人数据并且上传到受信的中心服务器来进行存储与训练模型,仅在本地进行数据训练,然后在中心服务器端协同多个本地模型进行优化,进而聚合多个本地模型的中间参数来得到服务端全局较优的模型,并下发到每个终端上。本地参与端训练中,本方法有别于传统的基于聚类、最近邻和矩阵分解等方法,按一定比例将数据集转换为隐式反馈数据集,构建神经协同过滤通用框架NCF,输入one

【技术实现步骤摘要】
一种基于联邦学习的神经网络协同过滤推荐方法


[0001]本专利技术涉及联邦学习
,具体涉及一种基于联邦学习的神经网络协同过滤推荐方法。

技术介绍

[0002]推荐系统已被广泛用于创建个性化预测模型,以帮助个人识别感兴趣的内容。此类系统收集个人的各种特征,例如人口学特征、项目相关的评分数据(显式反馈)或用户与特定项目的交互数据(隐式反馈)。它们的目标是根据过去的交互数据为用户提供其未来的偏好推荐,推荐系统目前被广泛应用于电子商务和在线流媒体服务等各个领域。在传统的推荐系统中,用户的偏好和学习的特征向量可以揭示敏感信息。此外,复杂的技术可以导致数据集的去匿名化。因此,需要在不泄露用户私人数据的情况下构建强大的推荐系统的方法。
[0003]随着云端中计算设备的不断增加,例如手机和可穿戴设备,机器学习的使用也越来越广泛。然而,传统的机器学习方法需要从那些由于传感器和丰富的用户交互而保存大量私人信息的设备传输数据。为了克服将此类信息存储在中央服务器中的挑战并增强用户的隐私,谷歌在2016年提出了一种新技术,名为联邦学习(FL),其中的联合设本文档来自技高网...

【技术保护点】

【技术特征摘要】
1.一种基于联邦学习的神经网络协同过滤推荐方法,其特征在于:包含以下步骤:步骤1,中心服务器初始化神经网络模型的训练配置并启动该训练计划,并发送给参与方P1,P2,...,P
N
;参与方将收到的训练配置中的全局参数w0作为本地神经网络协同过滤模型的第0轮模型参数;步骤2,中心服务器随机选择C个参与方作为训练参与方参与到第t轮训练中,并向它们发送当前的全局模型;步骤3,第t轮训练的各参与方使用本地训练数据集D
c
以及本地步骤local epochs,来更新已有的本地神经网络协同过滤模型的第t

1轮全局模型参数得到本地神经网络协同过滤模型的第t轮各参与方的模型参数c∈C,C为训练参与方的个数,t为训练轮数;步骤4,第t轮训练中的各参与方将其在本地第t轮训练更新后的模型参数上传给服务器,并进行加入高斯噪声的差分隐私处理;步骤5,服务器基于FedAvg算法对步骤4各参与方上传的模型参数进行聚合,得到新的全局参数w
t
;步骤6,服务器将依据生成的新的全局参数w
t
,判断所有参与方的本地神经网络协同过滤模型是否已经收敛或达到预定的训练次数:如果是,则转至步骤7;否则,令训练轮数t加1,并返回步骤2;步骤7,各参与方使用本地训练好的神经网络协同过滤模型以及命中率@10评估协议,对本地测试数据的进行预测,生成一个前10个推荐项列表,从而对训练后的模型在推荐系统中的应用情况进行评估,并输出推荐结果。2.根据权利要求1所述的一种基于联邦学习的神经网络协同过滤推荐方法,其特征在于:步骤1中服务器发送的训练配置具体内容包括:对任务的描述,通知参与方模型的超参数,超参数包含与训练过程有关的相关信息;当前模型的全局参数w0;常数C,表示在聚合前本地参与方的数量。3.根据权利要求1所述的一种基于联邦学习的神经网络协同过滤推荐方法,其特征在于:步骤3中,首先将数据集转换为隐式反馈数据集,并且采用神经协同过滤NCF框架来进行训练,为方便表示,定义数据集中,A和B分别表示用户u和项目i的数量,K表示潜在空间latent space的维度;该...

【专利技术属性】
技术研发人员:肖甫顾怡金诚程凡恺陈小柏周剑
申请(专利权)人:南京邮电大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1