基于对比学习的图神经网络的去偏方法技术

技术编号:37153019 阅读:28 留言:0更新日期:2023-04-06 22:11
一种基于对比学习的图神经网络的去偏方法,包括:S1:客户端收集获取图数据,构建图网络;S2:将图网络进行增删连边的数据增强后,构建添加了公平约束的对比学习模型,训练至收敛后对比得到去偏效果最好的数据增强方案,获得去偏之后的图数据;S3:构建对应具体任务的图神经网络模型,在模型损失函数中添加公平约束,利用上述图数据进行训练至模型收敛,得到去除了偏差的公平模型,用于实际应用。本发明专利技术能直接起到图神经网络的节点分类任务的去偏作用,同时保证数据集能够正常的作用于节点分类系统进行分类。类系统进行分类。类系统进行分类。

【技术实现步骤摘要】
基于对比学习的图神经网络的去偏方法


[0001]本专利技术涉及一种图神经网络的去偏方法,尤其涉及一种基于对比学习的图神经网络的去偏方法。

技术介绍

[0002]图神经网络(Graph Neural Network,GNN)是近年来出现的一种利用深度学习直接对图结构数据进行学习的框架,其优异的性能引起了学者高度的关注和深入的探索。通过在图中的节点和边上制定一定的策略,GNN将图结构数据转化为规范而标准的表示,并输入到多种不同的神经网络中进行训练,在节点分类、边信息传播和图聚类等任务上取得优良的效果。
[0003]近年来,GNN在深度学习领域的应用愈发广泛。在实际应用中,我们会遇到许多图结构的数据,如互联网用户的社交网络,科学家之间的合作网络,银行客户之间的关系网络等,我们经常需要通过对图结构数据进行学习从而获得可靠的应用系统。具体的应用如商品的推荐系统,银行客户的贷款批准预测等诸多现实场景中都用到了GNN模型,同时也带来了一些有关GNN公平方面的问题。在原始的图数据中经常会存在一些偏见,而GNN中的消息传递机制可能会进一步放大已经存在于数本文档来自技高网...

【技术保护点】

【技术特征摘要】
1.一种基于对比学习的图神经网络的去偏方法,包括以下步骤:S1:客户端收集获取图数据,构建图网络;S2:将图网络进行增删连边的数据增强后,构建添加了公平约束的对比学习模型,训练至收敛后对比得到去偏效果最好的数据增强方案,获得去偏之后的图数据;S3:构建对应具体任务的图神经网络模型,在模型损失函数中添加公平约束,利用上述图数据进行训练至模型收敛,得到去除了偏差的公平模型,用于实际应用。2.如权利要求1所述的一种基于对比学习的图神经网络的去偏方法,其特征在于:所述步骤S1具体包括:收集获取实际任务所需的原始图数据集,对原始图数据进行初步的数据预处理,删去孤立节点,得到可用于训练的完整图数据网络G(V,E,X),其中V代表图中的节点集合,E代表根据节点之间的关系连接而成的连边集合,X表示节点的特征属性构成的集合。3.如权利要求1所述的一种基于对比学习的图神经网络的去偏方法,其特征在于:所述步骤S2具体包括:S2.1:将S1得到的图网络G进行随机的数据增强,此处采用随机增删部分连边的方式进行数据增强,在该步骤中,每条连边的增删的概率遵循一个一定概率ρ的均匀分布,从而得到新的训练图数据G0,我们在此图数据上进行对比学习;在上述获得的图数据G0的基础上进行对比学习的预训练,在对比学习中,对任一节点用户的计算图G
x
,对其进行随机增删连边和随机丢弃部分节点及其连边两种方式的数据增强(节点和连边的数据增强也遵循固定概率的均匀分布),得到两个增强图G
i
和G
j
,将这两个增强图对作为正例,不同节点的增强图对作为负例,进行对比学习;S2.2:将增强图G
i
和G
j
分别输入一个对比学习模型f(
·
),输出获得输入图的表示向量,分别为h
i
和h
j
;再将得到的表示向量输入一个非线性变换的g(
·
),将其映射到另一个计算对比损失的潜在空间中来计算对比损失,输出结果为z
i
和z
j
,过程具体为:S2.3:定义损失函数的第一部分,即对比损失函数L(
·
),以实现正例z
i
和z
j
之间相比于负例的一致性的最大化;该部分损失函数的作用是使得正例间的输出结果足够接近,而负例间的输出相互远离,以保证对比学习模型能在没有标签的情况下提取到数据的基本特征;基于余弦相似函数定义的NT

Xent损失函数定义为:其中z
...

【专利技术属性】
技术研发人员:郑海斌刘涛陈晋音
申请(专利权)人:浙江工业大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1