基于相互学习的图卷积神经网络节点分类方法、存储介质和终端技术

技术编号:27977334 阅读:41 留言:0更新日期:2021-04-06 14:11
本发明专利技术公开了基于相互学习的图卷积神经网络节点分类方法、存储介质和终端,方法包括以下步骤:将待分类数据输入训练后的相互学习网络,得到节点分类结果;所述相互学习网络包括的训练以下子步骤:利用损失函数L

【技术实现步骤摘要】
基于相互学习的图卷积神经网络节点分类方法、存储介质和终端
本专利技术涉及神经网络领域,尤其涉及基于相互学习的图卷积神经网络节点分类方法、存储介质和终端。
技术介绍
图数据具有不规则和多变的数据结构,用来表示各个对象以及它们之间的相互关系,它可以应用于社交网络、交通网络和生物化学分子网络等众多领域。图数据表示已成为一个日益热门的研究领域。图神经网络是基于深度学习技术最流行的图表示方法,尤其是图卷积网络方法将卷积运算从传统图像数据推广到图数据,已显示出显著的学习能力。相互学习并不需要先前强大的“教师”网络,只需要一组学生网络即可有效的训练,并且结果要强于有“教师”指导的网络,但现有的相互学习网络的数量通常为两个,但是采用该方式会使得数据并不准确。需要说明的是,在上述
技术介绍
部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
技术实现思路
本专利技术的目的在于克服现有技术的不足,提供基于相互学习的图卷积神经网络节点分类方法、存储介质和终端。本专本文档来自技高网...

【技术保护点】
1.基于相互学习的图卷积神经网络节点分类方法,其特征在于:包括以下步骤:/n将待分类数据输入训练后的相互学习网络,得到节点分类结果;所述相互学习网络包括的训练以下子步骤:/n利用损失函数L

【技术特征摘要】
1.基于相互学习的图卷积神经网络节点分类方法,其特征在于:包括以下步骤:
将待分类数据输入训练后的相互学习网络,得到节点分类结果;所述相互学习网络包括的训练以下子步骤:
利用损失函数Lk,对包括三个及以上的学生网络的相互学习网络进行训练;所述损失函数Lk包括自身交叉熵损失函数和KL损失函数;所述损失函数包括:



式中,N表示学生网络的数量,k表示第k个学生网络,l表示除开第k个学生网络以外的学生网络,DKL(pl||pk)表示第k个学生网络相对第l个学生网络的KL损失,pl表示第l个学生网络的预测输出,pk表示第k个学生网络的预测输出;κ用于控制KL损失的权重,κ<1。


2.根据权利要求1所述的基于相互学习的图卷积神经网络节点分类方法,其特征在于:所述KL损失函数具体为:



式中,M表示学生网络输入中的标签label中类别的数量,表示学生网络l预测节点xi属于类别m的概率,也就是该网络的输出。


3.根据权利要求1所述的基于相互学习的图卷积神经网络节点分类方法,其特征在于:所述自身交叉熵损失函数具体为:



式中,M表示学生网络输入中的标签label中类别的数量,表示学生网络k预测节点xi属于类别m的概率,yi表示该学生网络对第i个节点所属类别的预测值,信号函数


4.根据权利要求1所述的基于相互学习的图卷积神经网络节点分类方法,其特征在于:所述学生网络的输入包括P、X和label;X表示节点自身的特征,label表示所属的类别;
其中,构建一个Q×Q维的矩阵P,P中第i行第j的值mij表示图中第i个和j个节点的连接状态,若两个节点为边连接则mij为1,若两个节点没有边连接则mij为0,其中,i=1,2……N,j=1,2……N;<...

【专利技术属性】
技术研发人员:匡平高宇李凡彭江艳黄泓毓段其鹏刘晨阳
申请(专利权)人:电子科技大学
类型:发明
国别省市:四川;51

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1