一种基于双通道信息融合的图神经网络会话推荐方法技术

技术编号:35938767 阅读:15 留言:0更新日期:2022-12-14 10:26
本发明专利技术提出一种基于双通道信息融合的图神经网络会话推荐方法,该方法通过两个通道学习两个层次的会话嵌入,即全局信息增强的会话嵌入以及转导信息增强的会话嵌入。全局信息增强会话表示学习层利用其他会话和当前会话的信息来学习一个全局级的会话嵌入,转导信息增强会话表示学习层只利用当前会话的项目来学习一个新的会话嵌入,并将时间信息融入到会话序列中的项目表示中用于邻居嵌入学习,进一步增强会话序列中的顺序转导关系。该发明专利技术能够弱化在利用其他会话信息时引入的不相关项(噪声)对模型性能的影响,并且在邻居聚合时融合了时间信息,从而提升了会话推荐的质量和准确性。性。性。

【技术实现步骤摘要】
一种基于双通道信息融合的图神经网络会话推荐方法


[0001]本专利技术专利涉及一种基于图神经网络的会话推荐方法,在推荐系统领域具有重要的应用前景和实用价值。

技术介绍

[0002]随着互联网的飞速发展,信息过载的问题也越来越突出。为了缓解Web上的信息过载,推荐系统已经被广泛部署,并用于进行个性化的信息过滤。推荐系统的核心是预测用户是否会与某项商品进行交互,例如,点击、加购物车、购买等形式的交互。在许多现实世界的网络应用中也扮演着非常重要的角色,例如电子商务、短视频平台和音乐平台等。推荐系统取得巨大成功的原因在于它可以通过为每个用户提供个性化的推荐来缓解信息超载的问题。传统的推荐系统基于用户的个人资料和他们所有的历史活动来提供建议。然而,在某些情况下,这些信息是不能被访问的,在这种情况下,只有匿名用户在短时间内的行为可用。为了提高匿名用户的推荐质量,提出了基于会话的推荐,旨在基于匿名会话更好地预测下一个点击动作。基于会话的推荐作为一种基础的推荐任务,在学术界和产业界都得到了广泛的研究,它根据给定的匿名行为序列,按时间顺序预测下一个感兴趣的项目。基于会话的推荐的一个常见范例是学习会话中各个项目的向量表示(即项目嵌入),然后根据序列中的项目表示生成会话表示,最后基于会话表示和所有商品嵌入之间的相似性执行top

k推荐。与大多数其他需要明确用户人口统计信息的推荐任务不同,会话推荐系统只依赖于正在进行的会话中的匿名用户操作日志(例如,点击)来预测用户的下一个操作。

技术实现思路

[0003]现有的基于图神经网络的会话推荐的方法虽然取得了很好的效果,但是仍存在着一些问题。首先,利用其他会话的项目转导信息虽然能够丰富当前会话序列中的项目表示,以便更好地推断当前会话的用户偏好,但不可避免的会引入不相关项(噪声),从而对模型性能产生影响。其次,通过翻转会话序列的方式来利用反向位置编码进行项目表示的聚合,虽然能够更直观地衡量会话序列中每个项目的贡献,但一定程度上破坏了会话序列中项目的顺序转导关系。此外,现有的方法通常侧重于从空间结构信息的角度进行信息聚合,但对会话序列中相邻节点的时间信息的研究却不够深入。因此,针对上述这些问题,本专利技术提出一种基于双通道信息融合的图神经网络会话推荐方法。
[0004]本专利技术主要包括四个部分:(1)数据预处理。(2)会话图和全局图的构造。(3)基于转导信息增强门控图神经网络的会话推荐模型。(4)项目推荐。
[0005](1)数据预处理和数据增强。长度为1的会话和出现次数少于5次的条目在所有三个数据集中都被过滤。此外,还对数据进行增强。对于一个会话序列S={v
s,1
,v
s,2
,...,v
s,n
},将其分割处理成序列和相应的标签,即([v
s,1
],v
s,2
),([v
s,1
,v
s,2
],v
s,3
),...,([v
s,1
,v
s,2
,...,v
s,n
‑1],v
s,n
)。
[0006](2)会话图和全局图的构造。由于采用的是图神经网络,因此需要将会话序列转换
成图的形式。将图的构造分成两个部分:
[0007]1)会话图构造。对于一个会话序列可以将其建模成一个有向图G
s
=(V
s
,E
s
),其中V
s
表示会话S中的节点,E
s
代表会话S中边的集合,每条边表示为会话中两个相邻时间点点击的项目。把每个会话序列建模成两个有向图:一个顺序图和一个逆序图。对于顺序图,将边划分成输入边和输出边,并且分配一个归一化的权重,它的计算方法是该边的出现次数除以该边的起始节点的出度。对于逆序图,首先将序列翻转即变成[v3,v2,v3,v4,v2,v1],然后为每个项目添加一条自连接边,并将边分成四种类型,分别为e
in
,e
out
,e
in

out
,e
self
。e
in
表示输入边,e
out
表示输出边,,即一条从v
i
到v
j
的单向边,e
in

out
表示双向边,即两个项目之间的转导是双向的。e
self
表示自连接。
[0008]2)全局图构造。构建全局图来利用所有会话中的项转换提取全局信息,提高模型的泛化性。G
g
=(V
g

g
)表示全局图,V
g
表示构成全局图的节点即为V中的所有项目,ε
g
代表所有会话序列中相邻项构成的边,用邻居项在所有会话的出现频率作为相应边的权值。出于效率考虑,对于每个项目只保留边权重最高的N条边。
[0009](3)基于转导信息增强门控图神经网络的会话推荐模型。该模型主要由图注意力网络和图门控网络构成,分别利用这两个网络来学习不同层次的会话表示,以便更好的进行推荐。该阶段为本专利技术的重点,分为三个部分:
[0010]1)全局信息增强会话表示学习(Global information enhances session presentation learning)。在这一部分,利用会话图和全局图分别学习项目内的局部项目表示以及项目间的全局项目表示,然后通过反向位置编码和软注意机制把两个层次学习到的项目表征进行聚合形成全局级会话表示。
[0011]2)转导信息增强会话表示学习(Transduction information enhances session presentation learning)。在这一部分,采用位置编码将时间信息嵌入到会话序列中的项目表示中,增强会话序列的顺序转导关系。然后使用门控图卷积网络来学习会话序列的项目转导关系并生局部级会话表示。
[0012]3)预测(Prediction)。通过前两个部分(通道)的学习,得到了一个全局级会话表示和一个局部级会话表示。通过将全局级会话表示和局部级会话表示输入到预测层,可以得到两个概率向量,之后使用一个可调节的超参数k将两个概率向量相加来得到最终的预测概率。
[0013](4)项目推荐。根据会话推荐模型得到的最终预测概率来进行项目推荐。基于转导信息增强门控图神经网络的会话推荐模型的总览图如图1所示。首先我们通过全局信息增强会话表示学习层和转导信息增强会话表示学习层两个通道来学习不同层次的会话嵌入,全局信息增强会话表示学习层利用翻转后的当前会话序列和其他会话信息来学习会话级的项目表示和全局级的项目表示,并利用反向位置编码和软注意机制将项目表示聚合成一个全局级的会话嵌入。转导信息增强会话表示学习层只利用当前会话序列的项目来学习一个会话嵌入本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于双通道信息融合的图神经网络会话推荐方法,用在会话序列的下一项推荐中,其特征在于:步骤1:数据预处理和数据增强。具体来说,长度为1的会话和出现次数少于5次的条目在所有三个数据集中都被过滤了。此外,还对数据进行增强。对于一个会话序列S={v
s,1
,v
s,2
,...,v
s,n
},将其分割处理成序列和相应的标签,即([v
s,1
],v
s,2
),([v
s,1
,v
s,2
],v
s,3
),...,([v
s,1
,v
s,2
,...,v
s,n
‑1],v
s,n
)。步骤2:会话图和全局图的构造,将其他类型的数据转换成图是图神经网络必不可少的一步。在这里将会话序列转换成会话图和全局图。其具体构建过程包含步骤2.1和2.步骤2.1:构建会话图,包括顺序图和逆序图的构造。对于一个会话序列括顺序图和逆序图的构造。对于一个会话序列可以将其建模成一个有向图G
s
=(V
s
,E
s
),其中V
s
表示会话S中的节点,E
s
代表会话S中边的集合,每条边表示为会话中两个相邻时间点点击的项目。以会话[v1,v2,v4,v3,v2,v3]为例,介绍如何将每个会话序列建模成两个有向图:一个逆序图和一个顺序图。对于逆序图,首先将序列翻转即变成[v3,v2,v3,v4,v2,v1],然后为每个项目添加一条自连接边,并将边分成四种类型,分别为e
in
,e
out
,e
in

out
,e
self
。e
in
表示输入边,e
out
表示输出边,,即一条从v
i
到v
j
的单向边,e
in

out
表示双向边,即两个项目之间的转导是双向的。e
self
表示自连接。对于顺序图,将边划分成输入边和输出边,并且分配一个归一化的权重,它的计算方法是该边的出现次数除以该边的起始节点的出度。步骤2.2:全局图构造。由于会话图只能提取当前会话内的项目转导信息,为了能够更好的提取项目的转导关系,构建全局图来利用所有会话中的项转换提取全局信息,提高模型的泛化性。G
g
=(V
g
,ε
g
)表示全局图,V
g
表示构成全局图的节点即为V中的所有项目,ε
g
代表所有会话序列中相邻项构成的边,用邻居项在所有会话的出现频率作为相应边的权值。出于效率考虑,对于每个项目只保留边权重最高的N条边。步骤3:构建转导信息增强门控图神经网络的会话推荐模型模型。详细的网络模型构建分为三个步骤,其具体构建过程在步骤3.1、3.2和步骤3.3进行说明:步骤3.1:构建全局信息增强会话表示学习层,包括构建局部项目表示学习模块、全局项目表示学习模块和会话表示生成模块。这三个模块的具体实现细节在步骤3.1.1、3.1.2和3.1.3进行详细说明:步骤3.1.1:构建局部项目表示学习模块。利用图注意力网络来学习局部项目表示,利用注意力机制聚合邻居,以学习不同邻居节点的重要性。通过元素积和非线性转换来计算和之间的注意力分数α
ij
,对于不同的关系,训练不同的权重向量,即a
in
,a
out
,a
in

out
,a
self
。为了使不同节点之间的系数具有可比性,通过softmax函数将注意力权重进行标准化:在该公式中,是和之间的关系r的权重向量,在这里使用LeakyRelu作为激活函数,是v
i
的一阶邻居。接下来,根据之前计算得到的注意力分数对特征进行线性组合
来获得每个节点的输出特征:步骤3.1.2:构建全局项目表示学习模块。利用图注意力网络的思想,根据每个连接的重要性来生成注意力权重。采用注意力机制区分当前项的不同邻居的重要性。在这里,全局项目表示学习模块由两个组件组成:信息传播和信息聚合。信息传播:一个项目可能涉及到多个项目,从其他会话序列中获得更丰富的项目转换信息来帮助预测当前会话的兴趣。由于不同的邻居项有不同的重要性,所以考虑利用会话感知的注意力分数来区分当前项的邻居(N
ε
(v))的重要性。因此,当前项的邻居N
ε
(v)根据会话感知的注意力分数线性组合。其中π(v
i
,v
j
)估计不同邻居的重要性权重,采用softmax函数对其进行归一化。直观地说,一个项目越接近当前会话的偏好,这个项目就越接近用户的兴趣。因此,实现π(v
i
,v
j
)如下:这里选择LeakyRelu作为激活函数,

表示元素乘积,||表示级联操作,w
ij
∈R1是全局图中边(v
i

【专利技术属性】
技术研发人员:高世伟曾宇峰党小超董晓辉陈致伟方则宇赵文丰张稣艾
申请(专利权)人:西北师范大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1