基于图神经网络的时序数据自适应可信采样方法技术

技术编号:34374732 阅读:56 留言:0更新日期:2022-07-31 12:54
本发明专利技术公开了一种基于图神经网络的时序数据自适应可信采样方法,包括:基于时序数据构造图神经网络G;提取每一个节点的两层树拓扑连接结构;计算所有同类型节点之间的相似度;计算所有根节点的两层树拓扑连接结构中相连叶子节点的可信度;使所有根节点的可信度高于阈值;从根节点的叶子节点的数据中按照可信度的比例随机采样,将采样结果作为状态信息;将状态信息输入到图神经网络实现状态的更新和聚合,以输出最终的节点表示;将图神经网络G生成的节点表示进行拼接,利用注意力机制实现评分预测,并结合真实评分计算出MSE损失。本发明专利技术通过时间序列的归一化时间戳信息分析图神经网络邻居节点的可信度,同时根据可信度利用自适应调节采样节点的拓扑结构,能够实现对时间序列的准确预测。间序列的准确预测。间序列的准确预测。

Adaptive credible sampling method of time series data based on graph neural network

【技术实现步骤摘要】
基于图神经网络的时序数据自适应可信采样方法


[0001]本专利技术属于深度学习领域,具体涉及一种基于图神经网络的时序数据自适应可信采样方法。

技术介绍

[0002]图神经网络(GNN)是针对图这一数据结构的深度学习模型,它在多项基于图的机器学习任务当中表现出色,并且具有较高的可解释性,近年来已成为一种广泛应用的图表示学习方法。例如,GNN可以从用户项目交互网络中学习得到有效的用户和项目表示用于推荐系统。GNN在广义上是指以图结构为输入的所有神经网络,其核心思想是学习一个映射,将图结构中的节点及其邻居节点的特征映射为该节点的低维隐特征表示,这就涉及到对节点进行采样。
[0003]在现有的很多方法中,采用均匀采样可能会忽略掉重要的邻居节点,这可能使的图的一些重要结构特征在采样中被剔除掉,图神经网络的数据源也就无法得到保障。此外,这些方法大都没有考虑结构本身的时序特性,并且忽略了图神经网络中间层输出的浅层结构特征,这都使得图神经网络的应用效果受到了一定程度的限制。
[0004]近年来,针对图神经网络在推荐系统中的应用研究成果颇多,但其中不少方法仍然存在下列问题:1.针对邻居节点的均匀采样方法可能会忽略掉重要邻居提供的信息以及次邻居节点等其他节点的重要信息;2.没有为评分预测提供合适的可学习参数,限制了图神经网络的性能表现;3.没有邻居结构存在的时序特性;4忽略了图神经网络中间层输出的浅层结构特征。

技术实现思路

[0005]鉴于以上所述现有技术的缺点,本专利技术的目的在于提供一种基于图神经网络的时序数据自适应可信采样方法,以解决现有技术中的至少一个缺陷。
[0006]为实现上述目的及其他相关目的,本专利技术提供一种基于图神经网络的时序数据自适应可信采样方法,包括:
[0007]步骤1:基于时序数据构造图神经网络G;其中,在图神经网络G中,相同类型的节点之间没有边,不同类型的节点之间的边存在权重;
[0008]步骤2:提取每一个节点的两层树拓扑连接结构;
[0009]步骤3:计算所有同类型节点之间的相似度;
[0010]步骤4:利用所述时序数据的归一化时间戳信息,计算所有根节点的两层树拓扑连接结构中相连叶子节点的可信度;
[0011]步骤5:若某一根节点的所有叶子节点的可信度都小于等于阈值,按照相似度高低,选取与所述某一根节点相似的节点的叶子节点并入到所述某一根节点的叶子节点中,并返回步骤4,直到所有根节点的可信度都高于阈值;
[0012]步骤6:从根节点的叶子节点的数据中按照可信度的比例随机采样,将采样结果作
为状态信息;其中,所述可信度的比例指叶子节点的可信度与该叶子节点所属的根节点的可信度的比例,根节点的可信度等于该根节点下所有叶子节点的可信度的和;
[0013]步骤7:将所述状态信息输入到图神经网络实现状态的更新和聚合,以输出最终的节点表示;
[0014]步骤8:将图神经网络G生成的根节点和叶子节点表示进行拼接,利用注意力机制实现评分预测,并结合真实评分计算出MSE损失。
[0015]可选的,计算所有同类型节点之间的相似度包括:
[0016][0017]其中,I
i
、I
j
分别为同类型的节点i和节点j交互的历史记录向量。
[0018]可选的,所述时序数据的归一化时间戳信息t
ij
为:在根节点i的时间尺度上对叶子节点j发生的时刻进行归一化。
[0019]可选的,所述可信度计算如下:对于根节点i与节点i的叶子节点j相连的评分的可信度c
i,j
为:
[0020][0021]其中,d
i
为根节点i的度;λ为调节因子,取值范围为[0,1)。
[0022]可选的,根节点i的叶子节点j的数据的采样概率p(i|j)为:
[0023]其中N
i
为根节点i所有叶子节点j的集合,c
i,j
为可信度。
[0024]可选的,所述的状态更新和聚合为分别对不用类型的节点进行状态更新和聚合;
[0025]对于第l层节点i聚合所有的叶子节点j的状态表示的聚合公式为:
[0026][0027]l

1表示第l层节点,k∈N
i
,为根节点i所有叶子节点j的集合对应的编号;
[0028]对于第l层节点i利用聚合的状态表示更新得到最终的节点表示:
[0029][0030]其中,||为拼接操作,W
(l)
和W'
(l)
均为待学习的参数矩阵,σ(
·
)为sigmoid激活函数,为状态信息输入,l∈[0,L]为层数,L为待定参数。
[0031]可选的,利用注意力机制实现节点i和节点i的叶子节点j之间的评分为:
[0032]其中SOFTMAX为归一化指数函数,W1、W2、W
r
为待学习的参数矩阵。
[0033]可选的,所述的MSE损失为:
[0034]其中,||E
train
||为训练集E
train
的大小,r
i,j
为根节点i和根节点i的叶子节点j的评分。
[0035]如上所述,本专利技术的一种基于图神经网络的时序数据自适应可信采样方法,具有以下有益效果:
[0036]本专利技术通过时间序列的归一化时间戳信息分析图神经网络邻居节点的可信度,同时根据可信度利用自适应调节采样节点的拓扑结构,确保了节点的可信度,以便更好的对数据特征进行准确的采样,能够实现对时间序列的准确预测。
附图说明
[0037]图1为本专利技术一实施例一种基于图神经网络的时序数据自适应可信采样方法的流程图;
[0038]图2为本专利技术另一实施例一种基于图神经网络的时序数据自适应可信采样方法的流程图。
具体实施方式
[0039]以下通过特定的具体实例说明本专利技术的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本专利技术的其他优点与功效。本专利技术还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本专利技术的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
[0040]需要说明的是,以下实施例中所提供的图示仅以示意方式说明本专利技术的基本构想,遂图式中仅显示与本专利技术中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。
[0041]如图1所示,本申请一实施例提供一种基于图神经网络的时序数据自适应可信采样方法,包括以下步骤:
[0042]步骤1:基于时序数据构造图神经网络G;其中,在图神经网络G中,相同类型的节点之间没有边,不同类型的节点之间的边存在权重;
[0043]步本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于图神经网络的时序数据自适应可信采样方法,其特征在于,包括:步骤1:基于时序数据构造图神经网络G;其中,在图神经网络G中,相同类型的节点之间没有边,不同类型的节点之间的边存在权重;步骤2:提取每一个节点的两层树拓扑连接结构;步骤3:计算所有同类型节点之间的相似度;步骤4:利用所述时序数据的归一化时间戳信息,计算所有根节点的两层树拓扑连接结构中相连叶子节点的可信度;步骤5:若某一根节点的所有叶子节点的可信度都小于等于阈值,按照相似度高低,选取与所述某一根节点相似的节点的叶子节点并入到所述某一根节点的叶子节点中,并返回步骤4,直到所有根节点的可信度都高于阈值;步骤6:从根节点的叶子节点的数据中按照可信度的比例随机采样,将采样结果作为状态信息;其中,所述可信度的比例指叶子节点的可信度与该叶子节点所属的根节点的可信度的比例,根节点的可信度等于该根节点下所有叶子节点的可信度的和;步骤7:将所述状态信息输入到图神经网络实现状态的更新和聚合,以输出最终的节点表示;步骤8:将图神经网络G生成的根节点和叶子节点表示进行拼接,利用注意力机制实现评分预测,并结合真实评分计算出MSE损失。2.根据权利要求1所述的基于图神经网络的时序数据自适应可信采样方法,其特征在于,所述计算所有同类型节点之间的相似度ρ
i,j
:其中,I
i
、I
j
分别为同类型的节点i和节点j交互的历史记录向量。3.根据权利要求1所述的基于图神经网络的时序数据自适应可信采样方法,其特征在于,所述时序数据的归一化时间戳信息t
ij
为:在根节点i的时间尺度上对叶子节点j发生的时刻进行归一化。4.根据权利要求3所述的基于图神经网络的时序数据自适应可信采样方法,其特征在于,所述可信度计算如下:对于根节点i与节点...

【专利技术属性】
技术研发人员:李天泉史晓雨尚明生陈浩熊飞罗元平
申请(专利权)人:重庆康洲大数据集团有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1