一种保持预测顺序和结构依赖关系的图神经网络解释方法技术

技术编号:35197643 阅读:37 留言:0更新日期:2022-10-12 18:30
本发明专利技术属于神经网络解释技术领域,具体涉及一种保持预测顺序和结构依赖关系的图神经网络解释方法;该方法包括:获取原始图数据,将原始图数据输入待解释的图神经网络模型,得到原始的预测结果;采用掩码生成器对原始图数据进行掩码,得到掩码后的子图;将掩码后的子图输入到待解释的图神经网络模型,得到掩码后的预测结果;根据原始预测结果和掩码后的预测结果计算总损失;根据总损失优化掩码生成器,迭代更新掩码生成器参数,直到得到最优掩码生成器;采用最优掩码生成器对原始图数据进行掩码,得到掩码后的子图即原始预测结果的解释;本发明专利技术解释可对图神经网络的进行可靠的解释,实用性高。实用性高。实用性高。

【技术实现步骤摘要】
一种保持预测顺序和结构依赖关系的图神经网络解释方法


[0001]本专利技术属于神经网络解释
,具体涉及一种保持预测顺序和结构依赖关系的图神经网络解释方法。

技术介绍

[0002]在现实生活中,存在许多图数据,包括社交网络、知识图谱和蛋白质相互作用网络等。图神经网络(Graph neural networks,GNNs)将深度神经网络推广到图中,在一个连续的嵌入空间中学习图的表示,以便于下游任务。由于GNNs在表示图数据方面的出色能力,它在链接预测、图分类、节点分类等任务中表现出了优异的性能。
[0003]作为深层神经网络的推广,GNN多层叠加,利用非线性激活函数构造模型。尽管复杂的设计架构确保了其强大的图形表示能力,但它也存在不可解释的问题。GNN模型没有为解释其预测行为设计明确地目标函数,仅以端到端的方式优化参数。因此,GNN往往充当了一个黑匣子。由于其无法解释的模式,无法保证GNN模型的公平性和可信度,从而影响了GNN在关键应用中的广泛应用。
[0004]为此,很多学者开始研究图形神经网络的可解释性。这些方法通过确定对GNN的预测贡献最大的子图(特征/结构的子集),对一个给定的具体实例进行解释。现有的基于扰动的图神经网络解释方法使用掩码生成器以边子集的形式生成解释。其中,当将原始图形和生成的子图输入到要解释的模型时,掩码生成器的优化由结果的差异来指导。这类方法的关键在于两点:第一是设计目标函数,用于在使用原始图形和生成的图形作为输入时评估预测结果的差异。第二是设计一个强大的掩码生成器,能够确定应该掩盖或保留的边缘。然而现有的研究方法在设计目标函数时没有考虑预测结果的顺序一致性问题,在设计掩码生成器时没有考虑图数据中存在结构依赖的关键特性,因此导致解释结果不能形成完整子图。

技术实现思路

[0005]针对现有技术存在的不足,本专利技术提出了一种保持预测顺序和结构依赖关系的图神经网络解释方法,该方法包括:
[0006]S1:获取原始图数据,将原始图数据输入待解释的图神经网络模型,得到原始的预测结果;其中,原始图数据是一种情感分析的图分类数据,每个图是一条句子,图中每个节点是一个词,边是词语之间的关系;
[0007]S2:采用掩码生成器对原始图数据进行掩码,得到掩码后的子图;
[0008]S3:将掩码后的子图输入到待解释的图神经网络模型,得到掩码后的预测结果;
[0009]S4:根据原始预测结果和掩码后的预测结果计算总损失;
[0010]S5:根据总损失优化掩码生成器,重复步骤S2~S4,直到得到最优掩码生成器;
[0011]S6:采用最优掩码生成器对原始图数据进行掩码,得到掩码后的子图即原始预测结果的解释。
[0012]优选的,采用掩码生成器对原始图数据进行掩码的过程包括:
[0013]S21:将原始图的节点转换为新图的边,将原始图的边转换为新图的节点,在新图中有数据流的节点间建立边;
[0014]S22:将新图输入到图注意力网络模型中进行处理,得到隐变量;
[0015]S23:根据隐变量,采用离散分布的重参数技巧计算每条边的重要性分数,根据边的重要性分数对原始图的边进行掩码,得到掩码后的子图。
[0016]优选的,得到隐变量的公式为:
[0017][0018]其中,Ω表示隐变量集合,表示掩码生成器网络模型,表示新图的邻接矩阵;表示新图的节点特征,表示掩码生成器的参数。
[0019]进一步的,计算每条边的重要性分数的公式为:
[0020]m
pq
=C(ω
i
,∈,τ2)=σ((log∈

log(1

∈)+ω
i
)/τ2)
[0021]其中,m
pq
表示掩码节点p和节点q所连接的边e
i
的重要性得分,ω
i
表示隐变量集合中第i个隐变量,∈表示第一参数,τ2表示第二超参数。
[0022]优选的,计算总损失的过程包括:
[0023]S41:计算掩码后预测结果的逆排序矩阵,根据逆排序矩阵调整原始预测结果的顺序;
[0024]S42:将原始预测调整顺序后的结果输入到Plackett

Luce模型计算排序损失;
[0025]S43:计算原始预测结果和掩码后预测结果之间的值差异性损失;
[0026]S44:根据每条边的重要性分数获得掩码矩阵,计算掩码矩阵的一阶范数;
[0027]S45:根据排序损失、值差异性损失和掩码矩阵的一阶范数计算总损失。
[0028]进一步的,计算逆排序矩阵的公式为:
[0029][0030]其中,表示逆排序矩阵的第i行,softmax()表示归一化指数函数,表示掩码后的预测结果,表示预测结果中两两概率值之间差的绝对值,i表示矩阵的第i行,1是一个全1的列向量,τ1是温度参数,n表示一个图中节点的个数。
[0031]进一步的,调整原始预测结果的顺序的公式为:
[0032][0033]其中,表示原始预测Y调整顺序后的结果,表示逆排序矩阵,Y表示原始预测结果。
[0034]进一步的,计算排序损失的公式:
[0035][0036]其中,L
PL
表示排序损失,表示原始预测Y调整顺序后的结果的第i个位置的值。
[0037]进一步的,计算值差异性损失的公式为:
[0038]L
diff
=||f(A,X,W)

f(M

A,X,W)||1[0039]其中,L
diff
表示值差异性损失,f(A,X,W)表示原始图数据输入图神经网络模型得到的预测结果,f(M

A,X,W)表示原始图数据掩码后输入图神经网络模型得到的预测结果。
[0040]进一步的,计算总损失的公式为:
[0041][0042]其中,表示总损失,L
PL
表示排序损失,L
diff
表示值差异性损失,L
M
表示掩码矩阵的一阶范数。
[0043]本专利技术的有益效果为:本专利技术通过对掩码生成器进行优化,采用优化后的掩码生成器对原始图数据进行处理,得到原始图数据的解释结果;相比现有技术,本专利技术考虑了原始预测结果和掩码后预测结果之间顺序一致性以及原始图数据中边之间的依赖关系,能准确提取完整的对分类结果有重要作用的输入子图,对原始图数据的解释结果准确率高,可靠性好;解决了当前基于扰动的图神经网络解释方法没有考虑原始预测结果和掩码后预测结果之间顺序一致性,没有显式考虑边之间依赖关系的问题,实用性高。
附图说明
[0044]图1为本专利技术中保持预测顺序和结构依赖关系的图神经网络解释方法的流程图;
[0045]图2为本专利技术中保持预测顺序和结构依赖关系的图神经网络解释方法的框架图;...

【技术保护点】

【技术特征摘要】
1.一种保持预测顺序和结构依赖关系的图神经网络解释方法,其特征在于,包括:S1:获取原始图数据,将原始图数据输入待解释的图神经网络模型,得到原始的预测结果;其中,原始图数据为一种情感分析的图分类数据,每个图是一条句子,图中每个节点是一个词,边是词语之间的关系;S2:采用掩码生成器对原始图数据进行掩码,得到掩码后的子图;S3:将掩码后的子图输入到待解释的图神经网络模型,得到掩码后的预测结果;S4:根据原始预测结果和掩码后的预测结果计算总损失;S5:根据总损失优化掩码生成器,重复步骤S2~S4,直到得到最优掩码生成器;S6:采用最优掩码生成器对原始图数据进行掩码,得到掩码后的子图即原始预测结果的解释。2.根据权利要求1所述的一种保持预测顺序和结构依赖关系的图神经网络解释方法,其特征在于,采用掩码生成器对原始图数据进行掩码的过程包括:S21:将原始图的节点转换为新图的边,将原始图的边转换为新图的节点,在新图中有数据流的节点间建立边;S22:将新图输入到图注意力网络模型中进行处理,得到隐变量;S23:根据隐变量,采用离散分布的重参数技巧计算每条边的重要性分数,根据边的重要性分数对原始图的边进行掩码,得到掩码后的子图。3.根据权利要求2所述的一种保持预测顺序和结构依赖关系的图神经网络解释方法,其特征在于,得到隐变量的公式为:其中,Ω表示隐变量集合,表示掩码生成器网络模型,表示新图的邻接矩阵;表示新图的节点特征,表示掩码生成器的参数。4.根据权利要求2所述的一种保持预测顺序和结构依赖关系的图神经网络解释方法,其特征在于,计算每条边的重要性分数的公式为:m
pq
=C(ω
i
,∈,τ2)=σ((log∈

log(1

∈)+ω
i
)/τ2)其中,m
pq
表示掩码节点p和节点q所连接的边e
i
的重要性得分,ω
i
表示隐变量集合中第i个隐变量,∈表示第一参数,τ2表示第二超参数。5.根据权利要求1所述的一种保持预测顺序和结构依赖关系的图神经网络解释方法,其特征在于,计算总损失的过程包括:S4...

【专利技术属性】
技术研发人员:刘群张优敏李苑刘立王国胤
申请(专利权)人:重庆邮电大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1