图神经网络的训练方法、装置、设备和存储介质制造方法及图纸

技术编号:37770424 阅读:14 留言:0更新日期:2023-06-06 13:34
本申请涉及人工智能,提供一种图神经网络的训练方法、装置、设备和存储介质,应用于谣言检测,具体可以准确检测金融新闻的评论是否包含谣言信息,其中方法包括:先对由训练事件节点得到的训练文本向量集进行表征,得到表征结果;训练事件节点中不仅包含有文本内容,还包含实际触发点标签和实际语义标签;将表征结果分别输入多个不同的神经网络分别进行触发点分类、语义检测以及真实性判别,得到预测触发点标签、预测语义标签和预测真实性标签,使用预测触发点标签、预测语义标签和预测真实性标签进行多任务联合训练得到能够准确判别各个事件节点是否包含谣言信息。事件节点是否包含谣言信息。事件节点是否包含谣言信息。

【技术实现步骤摘要】
图神经网络的训练方法、装置、设备和存储介质


[0001]本申请涉及人工智能
,例如涉及图神经网络的训练方法、装置、设备和存储介质。

技术介绍

[0002]目前文本检测技术可以应用于检测谣言,开放评论的金融新闻和/或网络购物具有较多的评论,评论包括真实的用户观点和谣言信息,谣言检测可以准确检测金融新闻和/或网络购物的评论是否包含谣言信息。谣言检测主要是收集谣言事件样本的所有事件节点,然后通过单任务的训练方式使用事件节点中的文本内容来训练待训练谣言检测模型。通过单任务训练得到的谣言检测模型判别谣言的准确度较低,且单任务训练过程需要对同一类型的大量文本内容进行训练,需要耗费较长的时间。

技术实现思路

[0003]本申请提供一种图神经网络的训练方法、装置、设备和存储介质,旨在解决通过单任务训练得到的谣言检测模型判别谣言的准确度较低的问题。
[0004]为解决上述问题,本申请采用以下技术方案:
[0005]本文提供了图神经网络的训练方法,包括:
[0006]获取各个训练事件节点对应的文本内容,对所有所述文本内容进行预处理,得到训练文本向量集;
[0007]将所述训练文本向量集和邻接矩阵输入待训练图神经网络进行表征,得到表征结果;
[0008]将所述表征结果输入第一神经网络进行触发点分类,得到预测触发点标签;
[0009]将所述表征结果输入第二神经网络进行语义检测,得到预测语义标签;
[0010]将所述表征结果输入第三神经网络进行真实性判别,得到预测真实性标签;
[0011]根据所述预测触发点标签、预测语义标签和预测真实性标签训练所述待训练图神经网络,得到已训练图神经网络。
[0012]优选地,所述根据所述预测触发点标签、预测语义标签和预测真实性标签训练所述待训练图神经网络,得到已训练图神经网络,包括:
[0013]使用第一损失函数计算所述预测触发点标签与实际触发点标签之间的误差,得到第一损失函数值;
[0014]使用第二损失函数计算所述预测语义标签与实际语义标签之间的误差,得到第二损失函数值;
[0015]使用第三损失函数计算所述预测真实性标签与实际真实性标签之间的误差,得到第三损失函数值;
[0016]根据所述第一损失函数值、第二损失函数值和第三损失函数值计算最终损失函数值;
[0017]根据所述最终损失函数值训练所述待训练图神经网络,得到所述已训练图神经网络。
[0018]优选地,所述根据所述最终损失函数值训练所述待训练图神经网络,得到所述已训练图神经网络,包括:
[0019]根据所述最终损失函数值进行反向传播,更新所述待训练图神经网络的网络参数;
[0020]判断反向传播的传播次数是否大于传播次数阈值,若是,则停止训练,得到所述已训练图神经网络。
[0021]优选地,所述根据所述第一损失函数值、第二损失函数值和第三损失函数值计算最终损失函数值,包括:
[0022]根据如下公式计算所述最终损失函数值:
[0023][0024]其中,L
total
为所述最终损失函数值,为第一损失函数平均值,为第二损失函数平均值,为第三损失函数平均值,L
t
为所述第一损失函数值,L
s
为所述第二损失函数值,L
y
为所述第三损失函数值,α为调节参数。
[0025]优选地,所述将所述训练文本向量集和邻接矩阵输入待训练图神经网络进行表征之前,还包括:
[0026]统计各个所述训练事件节点之间的连接关系;
[0027]根据所述连接关系计算得到所述邻接矩阵。
[0028]优选地,所述得到已训练图神经网络之后,还包括:
[0029]获取各个测试事件节点对应的所述文本内容,对所有所述文本内容进行预处理,得到测试文本向量集;
[0030]将所述测试文本向量集和所述邻接矩阵输入所述已训练图神经网络进行表征,得到所述表征结果;
[0031]将所述表征结果输入所述第三神经网络进行真实性判别,得到所述预测真实性标签。
[0032]优选地,所述对所有所述文本内容进行预处理,得到训练文本向量集,包括:
[0033]对各个所述文本内容进行文本嵌入,得到文本向量;
[0034]将所有所述文本向量作为所述训练文本向量集。
[0035]本申请还提供了一种图神经网络的训练装置,包括:
[0036]第一文本内容预处理模块,用于获取各个训练事件节点对应的文本内容,对所有所述文本内容进行预处理,得到训练文本向量集;
[0037]第一表征模块,用于将所述训练文本向量集和邻接矩阵输入待训练图神经网络进行表征,得到表征结果;
[0038]触发点分类模块,用于将所述表征结果输入第一神经网络进行触发点分类,得到预测触发点标签;
[0039]语义检测模块,用于将所述表征结果输入第二神经网络进行语义检测,得到预测
语义标签;
[0040]第一真实性判别模块,用于将所述表征结果输入第三神经网络进行真实性判别,得到预测真实性标签;
[0041]图神经网络训练模块,用于根据所述预测触发点标签、预测语义标签和预测真实性标签训练所述待训练图神经网络,得到已训练图神经网络。
[0042]本申请还提供一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器执行所述计算机程序时实现上述任一项所述的图神经网络的训练方法的步骤。
[0043]本申请还提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任一项所述的图神经网络的训练方法的步骤。
[0044]本申请的图神经网络的训练方法,先对由训练事件节点得到的训练文本向量集进行表征,得到表征结果。训练事件节点中不仅包含有文本内容,还包含实际触发点标签和实际语义标签。将表征结果分别输入多个不同的神经网络分别进行触发点分类、语义检测以及真实性判别,得到预测触发点标签、预测语义标签和预测真实性标签,使用预测触发点标签、预测语义标签和预测真实性标签进行多任务联合训练得到能够准确判别各个事件节点是否包含谣言信息。
附图说明
[0045]图1为一实施例的图神经网络的训练方法的流程示意图;
[0046]图2为一实施例的训练待训练图神经网络的流程示意图;
[0047]图3为一实施例的根据最终损失函数值训练待训练图神经网络的流程示意图;
[0048]图4为一实施例的计算邻接矩阵的流程示意图;
[0049]图5为一实施例的图神经网络的训练装置的结构示意框图;
[0050]图6为一实施例的计算机设备的结构示意框图。
[0051]本申请目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
[0052]为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种图神经网络的训练方法,其特征在于,包括:获取各个训练事件节点对应的文本内容,对所有所述文本内容进行预处理,得到训练文本向量集;将所述训练文本向量集和邻接矩阵输入待训练图神经网络进行表征,得到表征结果;将所述表征结果输入第一神经网络进行触发点分类,得到预测触发点标签;将所述表征结果输入第二神经网络进行语义检测,得到预测语义标签;将所述表征结果输入第三神经网络进行真实性判别,得到预测真实性标签;根据所述预测触发点标签、预测语义标签和预测真实性标签训练所述待训练图神经网络,得到已训练图神经网络。2.根据权利要求1所述的图神经网络的训练方法,其特征在于,所述根据所述预测触发点标签、预测语义标签和预测真实性标签训练所述待训练图神经网络,得到已训练图神经网络,包括:使用第一损失函数计算所述预测触发点标签与实际触发点标签之间的误差,得到第一损失函数值;使用第二损失函数计算所述预测语义标签与实际语义标签之间的误差,得到第二损失函数值;使用第三损失函数计算所述预测真实性标签与实际真实性标签之间的误差,得到第三损失函数值;根据所述第一损失函数值、第二损失函数值和第三损失函数值计算最终损失函数值;根据所述最终损失函数值训练所述待训练图神经网络,得到所述已训练图神经网络。3.根据权利要求2所述的图神经网络的训练方法,其特征在于,所述根据所述最终损失函数值训练所述待训练图神经网络,得到所述已训练图神经网络,包括:根据所述最终损失函数值进行反向传播,更新所述待训练图神经网络的网络参数;判断反向传播的传播次数是否大于传播次数阈值,若是,则停止训练,得到所述已训练图神经网络。4.根据权利要求2所述的图神经网络的训练方法,其特征在于,所述根据所述第一损失函数值、第二损失函数值和第三损失函数值计算最终损失函数值,包括:根据如下公式计算所述最终损失函数值:其中,L
total
为所述最终损失函数值,为第一损失函数平均值,为第二损失函数平均值,为第三损失函数平均值,L
t
为所述第一损失函数值,L
s
为所述第二损失函数值,L
...

【专利技术属性】
技术研发人员:舒畅陈又新
申请(专利权)人:平安科技深圳有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1