模型训练方法、图数据处理方法、装置、设备及存储介质制造方法及图纸

技术编号:35299406 阅读:17 留言:0更新日期:2022-10-22 12:47
本申请提供了一种模型训练方法、图数据处理方法、装置、设备及存储介质;方法包括:获取预设的图神经网络模型和训练数据;利用图神经网络模型确定各个训练节点的训练表示向量;确定训练图结构的补图结构和补图结构的第一邻接矩阵,获取训练图结构的第二邻接矩阵;基于第一邻接矩阵、第二邻接矩阵和各个训练节点的训练表示向量确定第一损失函数分量;基于图神经网络模型预设的第二损失函数分量和第一损失函数分量确定联合损失函数;利用联合损失函数、各个训练节点的训练表示向量和各个训练节点的训练标签,对图神经网络模型进行训练,得到训练好的图神经网络模型。通过本申请,能够提高图神经网络模型对信号描述的全面性。提高图神经网络模型对信号描述的全面性。提高图神经网络模型对信号描述的全面性。

【技术实现步骤摘要】
模型训练方法、图数据处理方法、装置、设备及存储介质


[0001]本申请涉及人工智能
,尤其涉及一种图数据处理方法、装置、设备及计算机可读存储介质。

技术介绍

[0002]近年来,图结构的数据成了数据挖掘领域的研究热点,比如社交网络、引文网络、合作者网络,知识图谱、推荐系统等等。图数据由若干的节点和节点之间连的若干边构成,对这种数据的充分理解的利用离不开为其中的每一个节点生成一个表示向量。相关技术中利用图卷积网络和图注意力网络来确定节点的表示向量时往往无法捕捉到高频信号成分,随着层数的增加使得不同节点的分类信息趋于一致,从而出现过平滑问题,大大降低下游任务处理的准确度;例如在推荐任务处理时,会为差异较大的用户推荐相同的对象,不能实现精准推荐。

技术实现思路

[0003]本申请实施例提供一种模型训练方法、图数据处理方法、装置、设备及存储介质,能够提高神经网络模型对信号描述的全面性。
[0004]本申请实施例的技术方案是这样实现的:
[0005]本申请实施例提供一种模型训练方法,包括:
[0006]获取预设的图神经网络模型和训练数据,所述训练数据包括训练图结构和所述训练图结构中各个训练节点的标签信息;
[0007]利用所述图神经网络模型确定所述各个训练节点的训练表示向量;
[0008]确定所述训练图结构的补图结构和所述补图结构的第一邻接矩阵,获取所述训练图结构的第二邻接矩阵;
[0009]基于所述第一邻接矩阵、所述第二邻接矩阵和所述各个训练节点的训练表示向量确定第一损失函数分量;
[0010]基于所述图神经网络模型预设的第二损失函数分量和所述第一损失函数分量确定联合损失函数;
[0011]利用所述联合损失函数、所述各个训练节点的训练表示向量和所述各个训练节点的训练标签,对所述图神经网络模型进行训练,得到训练好的图神经网络模型。
[0012]本申请实施例提供一种图数据处理方法,包括:
[0013]响应于接收到的任务处理请求,获取所述任务处理请求对应的待处理的图结构数据和训练好的图神经网络模型,所述训练好的图神经网络模型是利用本申请实施例提供的模型训练方法训练得到的;
[0014]利用所述训练好的图神经网络模型对所述图结构数据进行预测处理,得到图结构中各个节点的表示向量,所述表示向量能够表征节点的全局特征和局部特征;
[0015]基于所述各个节点的表示向量进行任务处理,得到处理结果;
[0016]输出所述处理结果。
[0017]本申请实施例提供一种模型训练装置,包括:
[0018]第一获取模块,用于获取预设的图神经网络模型和训练数据,所述训练数据包括训练图结构和所述训练图结构中各个训练节点的标签信息;
[0019]第一确定模块,用于利用所述图神经网络模型确定所述各个训练节点的训练表示向量;
[0020]第二确定模块,用于确定所述训练图结构的补图结构和所述补图结构的第一邻接矩阵,获取所述训练图结构的第二邻接矩阵;
[0021]第三确定模块,用于基于所述第一邻接矩阵、所述第二邻接矩阵和所述各个训练节点的训练表示向量确定第一损失函数分量;
[0022]第四确定模块,用于基于所述图神经网络模型预设的第二损失函数分量和所述第一损失函数分量确定联合损失函数;
[0023]第一训练模块,用于利用所述联合损失函数、所述各个训练节点的训练表示向量和所述各个训练节点的训练标签,对所述图神经网络模型进行训练,得到训练好的图神经网络模型。
[0024]本申请实施例提供一种图数据处理装置,包括:
[0025]第二获取模块,用于响应于接收到的任务处理请求,获取所述任务处理请求对应的待处理的图结构数据和训练好的图神经网络模型,所述训练好的图神经网络模型是利用本申请实施例提供的模型训练方法训练得到的;
[0026]第一预测模块,用于利用所述训练好的图神经网络模型对所述图结构数据进行预测处理,得到图结构中各个节点的表示向量,所述表示向量能够表征节点的全局特征和局部特征;
[0027]第一处理模块,用于基于所述各个节点的表示向量进行任务处理,得到处理结果;
[0028]结果输出模块,用于输出所述处理结果。
[0029]本申请实施例提供一种计算机设备,包括:
[0030]存储器,用于存储可执行指令;
[0031]处理器,用于执行所述存储器中存储的可执行指令时,实现本申请实施例提供的模型训练方法或者图数据处理方法。
[0032]本申请实施例提供一种计算机可读存储介质,存储有可执行指令,用于引起处理器执行时,实现本申请实施例提供的模型训练方法或者图数据处理方法。
[0033]本申请实施例提供一种计算机程序产品,包括计算机程序或指令,所述计算机程序或指令被处理器执行时实现本申请实施例提供的模型训练方法或者图数据处理方法。
[0034]本申请实施例提供的模型训练方法具有以下有益效果:
[0035]在图神经网络模型的训练过程中,并不需要在每一层增加高通滤波器,也不需要通过对拉普拉斯矩阵的高阶多项式的计算来使得训练好的图神经网络模型具备表达高频信号的能力,而是在不改变图神经网络模型的基础上,对用于训练图神经网络模型的损失函数进行了改进,预设的第二损失函数分量的基础上增加了第一损失函数分量,而第一损失函数分量中包括通过训练图结构对应的补图结构的第一邻接矩阵确定出的第一正则子项和通过训练图结构对应的第二邻接矩阵确定出第二正则子项,由于第一正则子项能够表
示一个高通滤波器,因此通过第一损失函数分量能够使得训练好的图神经网络模型具有高频信号的表示能力,从而在不需要改变模型参数个数与计算复杂度的前提下,高效地训练出能够同时提供低频信号和高频信号成分的图神经网络模型。
附图说明
[0036]图1是本申请实施例提供的图数据处理系统100的网络架构示意图;
[0037]图2是本申请实施例提供的服务器400的结构示意图;
[0038]图3是本申请实施例提供的模型训练的实现流程示意图;
[0039]图4是本申请实施例提供的图数据处理方法的一种实现流程示意图;
[0040]图5为本申请实施例提供的图数据处理方法的另一种实现流程示意图;
[0041]图6为本申请实施例提供的图数据处理方法的再一种实现流程示意图;
[0042]图7为利用本申请实施例提供的图数据处理方法得到的虚拟对象推荐界面示意图;
[0043]图8为本申请实施例提供的图数据处理方法应用于游戏道具推荐场景下的实现流程示意图。
具体实施方式
[0044]为了使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请作进一步地详细描述,所描述的实施例不应视为对本申请的限制,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
[0045]在以下的描述中,本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种模型训练方法,其特征在于,所述方法还包括:获取预设的图神经网络模型和训练数据,所述训练数据包括训练图结构和所述训练图结构中各个训练节点的标签信息;利用所述图神经网络模型确定所述各个训练节点的训练表示向量;确定所述训练图结构的补图结构和所述补图结构的第一邻接矩阵,获取所述训练图结构的第二邻接矩阵;基于所述第一邻接矩阵、所述第二邻接矩阵和所述各个训练节点的训练表示向量确定第一损失函数分量;基于所述图神经网络模型预设的第二损失函数分量和所述第一损失函数分量确定联合损失函数;利用所述联合损失函数、所述各个训练节点的训练表示向量和所述各个训练节点的训练标签,对所述图神经网络模型进行训练,得到训练好的图神经网络模型。2.根据权利要求1中所述的方法,其特征在于,所述利用所述图神经网络模型确定所述各个训练节点的训练表示向量,包括:获取所述各个训练节点的属性信息,并基于所述各个训练节点的属性信息确定所述各个训练节点的特征向量;利用所述图神经网络模型对所述各个训练节点的特征向量和所述第二邻接矩阵进行编码处理,得到所述各个训练节点的训练表示向量。3.根据权利要求1中所述的方法,其特征在于,所述确定所述训练图结构的补图结构,包括:基于所述训练图结构的第二邻接矩阵,确定所述训练图结构中各个训练节点的非邻居节点集合;从所述各个训练节点的非邻居节点集合中确定预设个数的目标非邻居节点;将所述各个训练节点和各自对应的目标非邻居节点连接,构成所述训练图结构的补图结构。4.根据权利要求1中所述的方法,其特征在于,所述第一损失函数分量包括第一正则子项和第二正则子项,所述基于所述第一邻接矩阵、所述第二邻接矩阵和所述各个训练节点的训练表示向量确定第一损失函数分量,包括:获取第一超参数和第二超参数;对所述第一邻接矩阵的第i行第j列对应的第一邻接系数、第i个训练节点的训练向量、第j个训练节点的训练向量的转置的乘积进行求和处理,得到能够表示高通滤波器的第一正则子项;对所述第二邻接矩阵的第i行第j列对应的第二邻接系数、第i个训练节点的训练向量、第j个训练节点的训练向量的转置的乘积进行求和处理,得到能够表示低通滤波器的第二正则子项;利用所述第一超参数和所述第二超参数对所述第一正则子项和所述第二正则子项进行加权求和,得到所述第一损失函数分量。5.根据权利要求1中所述的方法,其特征在于,所述利用所述联合损失函数、所述各个训练节点的训练表示向量和所述各个训练节点的训练标签,对所述图神经网络模型进行训
练,得到训练好的图神经网络模型,包括:利用所述图神经网络模型对所述各个训练节点的训练表示向量进行预测处理,得到各个训练节点的预测信息;基于所述各个训练节点的预测信息、所述各个训练节点的训练标签和所述联合损失函数确定损失值;当根据所述损失值确定所述联合损失函数未收敛时,基于所述联合损失函数,对图神经网络模型的参数进行调整,直至得到训练好的图神经网络模型。6.根据权利要求1至5任一项所述的方法,其特征在于,所述方法还包括:获取测试数据,所述测试数据包括测试图结构和所述测试图结构中各个测试节点的标签信息;利用所述训练好的图神经网络模型对所述测试图结构进行预测处理,得到所述测试图结构中各个测试节点的预测信息;基于所述各个测试节点的预测信息和对应的标签信息确定所述训练好的图神经网络模型的评估指标值;确定所述评估指标值小于预设的指标阈值,再次获取训练数据;利用所述训练数据对所述训练好的图神经网络模型继续进行训练,直至再次训练好的图神经网络模型的评估指标值达到所述指标阈值。7.一种图数据处理方法,其特征在于...

【专利技术属性】
技术研发人员:孙嘉齐赵胜林白星宇石书玮
申请(专利权)人:深圳市腾讯信息技术有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1