一种基于图神经网络的异构蒸馏方法技术

技术编号:42806079 阅读:27 留言:0更新日期:2024-09-24 20:50
本发明专利技术提供了一种基于图神经网络的异构蒸馏方法,包括获取异构的至少两个教师模型以及学生模型,所有教师模型和学生模型均为设置有中间层以及输出层的图数据网络,教师模型是经训练的模型;获取训练集,其包括一个或者多个样本以及指示样本相关对象所属类别的标签,所述样本为包括节点和边的图数据;利用训练集和至少两个教师模型指导学生模型进行训练,训练包括:将样本输入每个教师模型和学生模型,得到各中间层生成的中间节点表示和各输出层生成的预测值;基于预设的总损失函数指导学生模型的参数更新,所述总损失函数被配置为分类交叉熵损失函数、中间级蒸馏损失函数和输出级蒸馏损失函数的加权和。

【技术实现步骤摘要】

本专利技术涉及图数据计算,具体来说涉及图神经网络领域,更具体地说,涉及一种基于图神经网络的异构蒸馏方法


技术介绍

1、图数据在现实世界中无处不在,而图神经网络(graph neural networks,简称gnns)提供了对图数据的高效表示,并在生物信息学、社交网络和推荐系统等领域展示了显著的进展。为了提高对图数据的节点表示能力,已经涌现出了各种各样的gnns变体。知识蒸馏(knowledge distillation,简称kd)作为一种通用的模型增强技术,在改善gnns的性能方面显示出巨大潜力。因此,为gnns设计kd方法(图蒸馏方法)已经引起了广泛的研究兴趣,并成为该领域的一个热点研究方向。

2、kd在gnns上的尝试取得了一定的成功。例如,lsp明确将嵌入在教师模型中的拓扑结构知识提炼给学生。受lsp的启发,cpf提出从教师模型中提取结构性和特征知识,提升学生模型的性能。hire设计了即插即用的高阶关系知识蒸馏框架,将图蒸馏首次扩展到任意异构图神经网络上。linkdist采用自蒸馏方法从图的边上提取知识,并蒸馏至基于多层感知机的(ml本文档来自技高网...

【技术保护点】

1.一种基于图神经网络的异构蒸馏方法,包括:

2.根据权利要求1所述的方法,其特征在于,所述总损失函数为:

3.根据权利要求2所述的方法,其特征在于,所述中间级蒸馏损失函数为:

4.根据权利要求2所述的方法,其特征在于,所述输出级蒸馏损失函数为:

5.根据权利要求1-4之一所述的方法,其特征在于,所有教师模型和学生模型均为彼此结构不同的异构模型,但所有教师模型和学生模型均设有产生相同尺寸的中间节点表示的指定中间层,该指定中间层输出的中间节点表示被用于中间级蒸馏损失函数的计算。

6.根据权利要求1-4之一所述的方法,其特征在于,所...

【技术特征摘要】

1.一种基于图神经网络的异构蒸馏方法,包括:

2.根据权利要求1所述的方法,其特征在于,所述总损失函数为:

3.根据权利要求2所述的方法,其特征在于,所述中间级蒸馏损失函数为:

4.根据权利要求2所述的方法,其特征在于,所述输出级蒸馏损失函数为:

5.根据权利要求1-4之一所述的方法,其特征在于,所有教师模型和学生模型均为彼此结构不同的异构模型,但所有教师模型和学生模型均设有产生相同尺寸的中间节点表示的指定中间层,该指定中间层输出的中间节点表示被用于中间级蒸馏损失函数的计算。

6.根据权利要求1-4之一所述的方法,其特征...

【专利技术属性】
技术研发人员:刘静郝沁汾
申请(专利权)人:中国科学院计算技术研究所
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1