【技术实现步骤摘要】
预训练图神经网络的方法以及装置
本申请涉及人工智能
,尤其涉及深度学习
中的一种预训练图神经网络的方法、装置、电子设备和可读存储介质。
技术介绍
现有技术在进行图神经网络(GNN,GraphNeuralNetwork)的预训练时,通常采用的是Deepwalk、LINE、Nod2vec、DeepGraphInfomax等方式。但是采用Deepwalk、LINE、Nod2vec等游走型算法进行图神经网络的预训练时,一方面仍然属于节点级别的预训练,另一方面往往会忽略图中节点本身的特征信息,导致预训练得到的图神经网络的效果较差;而DeepGraphInfomax模型也是属于节点级别的预训练模型,其并未考虑到基于图级别来实现对图神经网络的预训练。
技术实现思路
本申请为解决技术问题所采用的技术方案是提供一种预训练图神经网络的方法,包括:获取待训练的原样本;扩增各原样本,得到各原样本对应的正样本以及负样本;利用各原样本以及各原样本对应的正样本、负样本、弱样本,构造各原样本对应的样本组;分别将各样本 ...
【技术保护点】
1.一种预训练图神经网络的方法,包括:/n获取待训练的原样本;/n扩增各原样本,得到各原样本对应的正样本以及负样本;/n利用各原样本以及各原样本对应的正样本、负样本、弱样本,构造各原样本对应的样本组;/n分别将各样本组中的原样本以及其他样本中的一种作为图神经网络的输入,对所述图神经网络进行预训练,直至所述图神经网络收敛。/n
【技术特征摘要】
1.一种预训练图神经网络的方法,包括:
获取待训练的原样本;
扩增各原样本,得到各原样本对应的正样本以及负样本;
利用各原样本以及各原样本对应的正样本、负样本、弱样本,构造各原样本对应的样本组;
分别将各样本组中的原样本以及其他样本中的一种作为图神经网络的输入,对所述图神经网络进行预训练,直至所述图神经网络收敛。
2.根据权利要求1所述的方法,其中,扩增各原样本得到各原样本对应的正样本包括:
通过隐藏部分节点的属性、隐藏部分边的属性、增加部分节点之间的边以及删除部分节点之间的边中的至少一种,处理各原样本;
将处理结果作为各原样本对应的正样本。
3.根据权利要求1所述的方法,其中,扩增各原样本得到各原样本对应的负样本包括:
通过隐藏全部节点的属性、隐藏全部边的属性以及改变样本中全部节点的结构中的至少一种,处理各原样本;
将处理结果作为各原样本对应的负样本。
4.根据权利要求1所述的方法,其中,各原样本对应的弱样本包含其他原样本对应的正样本以及负样本中的至少一种。
5.一种预训练图神经网络的装置,包括:
获取单元,用于获取待训练的原样本;
处理单元,用于扩增各原样本,得到各原样本对应的正样本以及负样本;
构造单元,用于利用各原样本以及各原样本对应的正样本、负样本、弱样本,构造各原样本对应的样本组;
训练单元,...
【专利技术属性】
技术研发人员:黄正杰,李伟彬,冯仕堃,
申请(专利权)人:北京百度网讯科技有限公司,
类型:发明
国别省市:北京;11
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。