一种基于剪枝的图神经网络去相关性微调方法技术

技术编号:44845455 阅读:20 留言:0更新日期:2025-04-01 19:41
本公开提供一种基于剪枝的图神经网络去相关性微调方法。包括两个部分:模型精简模块和模型去相关模块;所述精简模块为通过随机移除冗余神经元来减少自监督预训练GNN中的模型冗余,以获取精简的图神经网络;所述模型去相关模块应用于微调阶段,学习用于分类损失的去相关权重,通过最小化重加权的部分交叉协方差矩阵调整f<subgt;s</subgt;和R的权重,鼓励节点嵌入在不同维度上的独立性,以减少嵌入表示间的冗余并使其更具信息量;对于图数据,将其输入到精简的图神经网络中以获得节点的嵌入表示,结合额外的预测层R预测每个节点的标签。

【技术实现步骤摘要】

本公开涉及计算机领域,更具体地讲,涉及一种基于剪枝的图神经网络去相关性微调方法


技术介绍

1、图自监督学习旨在无需标签的情况下学习图神经网络(gnns)的参数,已成为一种流行的图预训练范式。通常,图自监督学习分为两种学习方法,即图对比学习和图生成自监督学习。在预训练自监督gnn的参数之后,图自监督学习通过微调一个附加的预测层,在多种任务上实现了最先进的性能。

2、自监督gnn通过微调参数以适应不同的下游任务。而在图神经网络的微调过程中,常见的方法包括全参数微调和局部参数微调。全参数微调涉及对图神经网络和与下游任务相关的参数更新,能够充分利用预训练模型的信息,从而提升在新任务上的性能。然而,这种方法在计算资源和时间上需求较高,尤其在大规模图数据上训练时;局部参数微调则选择性地更新部分网络参数,通常针对特定任务影响较大的层,例如微调线性层或使用低秩适应(lora)方法。这种方法不仅能够降低计算开销,还能在一定程度上避免过拟合。然而,由于预训练模型的参数被冻结,模型在适应新任务时的灵活性受限,导致难以达到理论上的最优性能。>

3、因此,如本文档来自技高网...

【技术保护点】

1.一种基于剪枝的图神经网络去相关性微调方法,其特征在于,包括两个部分:模型精简模块和模型去相关模块;

2.如权利要求1所述的一种基于剪枝的图神经网络去相关性微调方法,其特征在于,所述去相关模块基于平方Frobenius范数设计,给定部分交叉协方差矩阵

3.如权利要求1所述的一种基于剪枝的图神经网络去相关性微调方法,其特征在于,所述精简模块首先预训练得到原始的图神经网络fo,然后通过随机减少层数和层内神经元的数量以获得精简图神经网络fs,之后,输入图数据G=(A,V,X)以获取节点嵌入H,其中A∈{0,1}N×N是图的邻接矩阵,V是图的节点集,N=|V|是节点数,...

【技术特征摘要】

1.一种基于剪枝的图神经网络去相关性微调方法,其特征在于,包括两个部分:模型精简模块和模型去相关模块;

2.如权利要求1所述的一种基于剪枝的图神经网络去相关性微调方法,其特征在于,所述去相关模块基于平方frobenius范数设计,给定部分交叉协方差矩阵

3.如权利要求1所述的一种基于剪枝的图神经网络去相关性微调方法,其特征在...

【专利技术属性】
技术研发人员:王啸王智彪胡春明
申请(专利权)人:北京航空航天大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1