基于联合学习的联合推荐框架的方法、装置、计算机设备及计算机可读存储介质制造方法及图纸

技术编号:36195343 阅读:19 留言:0更新日期:2023-01-04 11:47
本公提供了一种基于联合学习的联合推荐框架的方法、装置、计算机设备及计算机可读存储介质。该方法包括:在联合学习的中心节点端预收集相关数据进行数据预训练;将预训练的数据训练神经网络的浅层模型;响应于用户端节点,选择带权重的不同聚合方式将所述浅层模型下发到用户端节点。用户在端节点通过冻结神经网络中浅层网络的参数;训练神经网络的深层网络的参数;对深层网络的参数进行本地模型训练;将训练出的本地模型上传至联合学习中心点端。本公开可以在不泄露或汇聚各方原始数据的前提下进行联合建模,保持训练数据的去中心化和分散化,实现在保护用户隐私的前提下给与用户个性化推荐。户个性化推荐。户个性化推荐。

【技术实现步骤摘要】
基于联合学习的联合推荐框架的方法、装置、计算机设备及计算机可读存储介质


[0001]本公开涉及人工智能
,尤其涉及一种基于联合学习的联合推荐框架的方法、装置、计算机设备及计算机可读存储介质。

技术介绍

[0002]随着互联网高速发展,用户越来越注重于实现自我价值,在各方面看重个性化。同时用户对于自己的数据隐私也越来越关注。在保护用户隐私的前提下给与用户个性化推荐成为大家研究的重点。

技术实现思路

[0003]有鉴于此,本公开实施例提供了一种基于联合学习的联合推荐框架的方法、装置、计算机设备及计算机可读存储介质,可以在不泄露或汇聚各方原始数据的前提下进行联合建模,保持训练数据的去中心化和分散化。
[0004]本公开实施例的第一方面,提供了一种基于联合学习的联合推荐框架的方法,包括:
[0005]在联合学习的中心节点端预收集相关数据进行数据预训练;
[0006]将所述预训练的数据训练神经网络的浅层模型;
[0007]响应于所述用户端节点,选择带权重的不同聚合方式将所述浅层模型下发到用户端节点。
[0008]本公开实施例的第二方面,提供了一种基于联合学习的联合推荐框架的方法,包括:
[0009]用户端节点冻结神经网络中浅层网络的参数;
[0010]训练神经网络的深层网络的参数;
[0011]对所述深层网络的参数进行本地模型训练;
[0012]将训练出的所述本地模型上传至联合学习中心点端。
[0013]本公开实施例的第三方面,提供了一种基于联合学习的联合推荐框架的装置,包括:
[0014]预训练模块,用于在联合学习的中心节点端预收集相关数据进行数据预训练;
[0015]处理模块,用于将所述预训练的数据训练神经网络的浅层模型;
[0016]传输模块,用于响应于所述用户端节点,选择带权重的不同聚合方式将所述浅层模型下发到用户端节点。
[0017]本公开实施例的第四方面,提供了一种基于联合学习的联合推荐框架的装置,包括:
[0018]收集模块,用于用户端节点冻结神经网络中浅层网络的参数;
[0019]第一训练模块,用于训练神经网络的深层网络的参数;
[0020]第二训练模块,用于对所述深层网络的参数进行本地模型训练;
[0021]上传模块,用于将训练出的所述本地模型上传至联合学习中心点端。
[0022]本公开实施例的第五方面,提供了一种计算机设备,包括存储器、处理器以及存储在存储器中并且可以在处理器上运行的计算机程序,该处理器执行计算机程序时实现上述方法的步骤。
[0023]本公开实施例的第六方面,提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时实现上述方法的步骤。
[0024]本公开实施例与现有技术相比存在的有益效果是:通过在联合学习的中心节点端预收集相关数据进行数据预训练;将所述预训练的数据训练神经网络的浅层模型;响应于所述用户端节点,选择带权重的不同聚合方式将所述浅层模型下发到用户端节点。用户端节点冻结神经网络中浅层网络的参数;训练神经网络的深层网络的参数;对所述深层网络的参数进行本地模型训练;将训练出的所述本地模型上传至联合学习中心点端。通过上述方法可以在不泄露或汇聚各方原始数据的前提下进行联合建模,保持训练数据的去中心化和分散化。
附图说明
[0025]为了更清楚地说明本公开实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
[0026]图1是本公开实施例的应用场景的场景示意图;
[0027]图2是本公开实施例提供的一种基于联合学习的联合推荐框架的方法的流程图;
[0028]图3是本公开实施例提供的另一种基于联合学习的联合推荐框架的方法的流程图;
[0029]图4是本公开实施例提供的再一种基于联合学习的联合推荐框架的装置的框图;
[0030]图5是本公开实施例提供的一种基于联合学习的联合推荐框架的装置的框图;
[0031]图6是本公开实施例提供的再一种基于联合学习的联合推荐框架的方法的传输示意图;
[0032]图7是本公开实施例提供的一种计算机设备的示意图。
具体实施方式
[0033]以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本公开实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本公开。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本公开的描述。
[0034]下面将结合附图详细说明根据本公开实施例的一种基于联合学习的联合推荐框架的方法和装置。
[0035]图1是本公开实施例的应用场景的场景示意图。该应用场景可以包括终端设备1、2和3、服务器4以及网络5。
[0036]终端设备1、2和3可以是硬件,也可以是软件。当终端设备1、2和3为硬件时,其可以是具有显示屏且支持与服务器4通信的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等;当终端设备1、2和3为软件时,其可以安装在如上所述的电子设备中。终端设备1、2和3可以实现为多个软件或软件模块,也可以实现为单个软件或软件模块,本公开实施例对此不作限制。进一步地,终端设备1、2和3上可以安装有各种应用,例如数据处理应用、即时通信工具、社交平台软件、搜索类应用、购物类应用等。
[0037]服务器4可以是提供各种服务的服务器,例如,对与其建立通信连接的终端设备发送的请求进行接收的后台服务器,该后台服务器可以对终端设备发送的请求进行接收和分析等处理,并生成处理结果。服务器4可以是一台服务器,也可以是由若干台服务器组成的服务器集群,或者还可以是一个云计算服务中心,本公开实施例对此不作限制。
[0038]需要说明的是,服务器4可以是硬件,也可以是软件。当服务器4为硬件时,其可以是为终端设备1、2和3提供各种服务的各种电子设备。当服务器4为软件时,其可以实现为终端设备1、2和3提供各种服务的多个软件或软件模块,也可以实现为终端设备1、2和3提供各种服务的单个软件或软件模块,本公开实施例对此不作限制。
[0039]网络5可以是采用同轴电缆、双绞线和光纤连接的有线网络,也可以是无需布线就能实现各种通信设备互联的无线网络,例如,蓝牙(Bluetooth)、近场通信(Near Field Communication,NFC)、红外(Infrared)等,本公开实施例对此不作限制。
[0040]用户可以通过终端设备1、2和3经由网络5与服务器4建立通信连接,以接收或发送信息等。具体地,在用户将收集到的兴趣点的数据导入到服务器4之后,服务器4本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于联合学习的联合推荐框架的方法,其特征在于,包括:在联合学习的中心节点端预收集相关数据进行数据预训练;将所述预训练的数据训练神经网络的浅层模型;响应于所述用户端节点,选择带权重的不同聚合方式将所述浅层模型下发到用户端节点。2.根据权利要求1所述的方法,其特征在于,选择带权重的不同聚合方式将所述浅层模型下发到用户端节点包括:响应于所述用户端节点;对用户端上传的模型进行聚合。3.一种基于联合学习的联合推荐框架的方法,其特征在于,包括:用户端节点冻结神经网络中浅层网络的参数;训练神经网络的深层网络的参数;对所述深层网络的参数进行本地模型训练;将训练出的所述本地模型上传至联合学习中心点端。4.根据权利要求3所述的方法,其特征在于,对所述深层网络的参数进行本地模型训练包括:获取全局模型中的可显参数,其中可显参数包含本地参数和收集参数;对所述可显参数进行本地模型训练。5.一种基于联合学习的联合推荐框架的装置,其特征在于,包括:预训练模块,用于在联合学习的中心节点端预收集相关数据进行数据预训练;处理模块,用于将所述预训练的数据训练神经网络的浅层模型;传输模块,用于响应于所述用户端节点,选择带权重的不同...

【专利技术属性】
技术研发人员:赵蕾
申请(专利权)人:新智数字科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1