事件共指消解方法、装置、终端及计算机可读存储介质制造方法及图纸

技术编号:35229978 阅读:28 留言:0更新日期:2022-10-15 10:50
本发明专利技术所提供的事件共指消解方法、装置、终端及计算机可读存储介质,所述事件共指消解方法包括:将目标事件输入预先训练的粗筛模型,在预先建立的存量事件库中检索得到与所述目标事件对应的候选事件池;构造所述目标事件与所述候选事件池中各个候选事件之间的事件对;将各个所述事件对输入预先训练的精筛模型,确定各个所述事件对中目标事件与候选事件之间的共指关系。本发明专利技术通过使用预先训练的粗筛模型进行检索,将原来的存量事件库缩小为候选事件池,降低了推理时的计算量,再通过预先训练的精筛模型,减少了上游模型误差的传播,提升了推理效果。提升了推理效果。提升了推理效果。

【技术实现步骤摘要】
事件共指消解方法、装置、终端及计算机可读存储介质


[0001]本专利技术涉及自然语言处理
,尤其涉及的是事件共指消解方法、装置、终端及计算机可读存储介质。

技术介绍

[0002]在信息大爆炸的背景下,利用自然语言处理技术从海量的文本数据当中提取有价值的信息成为一个极其重要的课题。其中,事件共指消解处于信息抽取系统的下游部分,能够对上游抽取出的信息进行组织,提高了应用事件信息的便利性。事件共指消解旨在识别事件之间的指向现实世界中同一客观事件的关系,将满足共指关系的事件聚集成事件簇,有助于从不同来源的数据中识别相同事件,进而达到补全、验证事件信息的目的。事件共指消解在信息并发的场景中发挥着重要作用,对商业参考、舆情分析、金融事件分析、问答系统等应用皆有巨大价值。
[0003]从模型的结构层面,已有的事件共指消解模型大致分为管道模型及联合模型两类。其中,管道模型依赖于一个额外的触发词检测器来抽取事件指称,进而推断抽取出的事件指称之间的共指关系;在管道结构中,上游组件的错误将传播到下游组件,即,管道模型的误差会传播到事件共指消解模型中,因此,上游抽取出的事件指称的质量容易成为共指消解效果的瓶颈。联合模型在同一个模型当中完成事件指称识别与共指消解,自然地消除了误差传播问题;然而,多任务的耦合对特征提取工作提出巨大挑战。在事件共指打分器方面,基于事件对模型将共指消解转化为二分类问题,独立地判断事件对之间的共指关系是否成立,在推理时需要构造目标事件与事件池中所有事件的事件对来确定完备的共指关系,在实际应用中事件池的数量往往非常大,这对模型应用带来很大的挑战;即,事件对模型推理计算量大,实际应用困难。
[0004]因此,现有技术存在缺陷,有待改进与发展。

技术实现思路

[0005]本专利技术要解决的技术问题在于,针对现有技术的上述缺陷,提供事件共指消解方法、装置、终端及计算机可读存储介质,旨在解决现有技术中的事件共指消解模型在确定共指关系时会产生误差传播或者推理计算量大的问题。
[0006]本专利技术解决技术问题所采用的技术方案如下:一种事件共指消解方法,包括:将目标事件输入预先训练的粗筛模型,在预先建立的存量事件库中检索得到与所述目标事件对应的候选事件池;构造所述目标事件与所述候选事件池中各个候选事件之间的事件对;将各个所述事件对输入预先训练的精筛模型,确定各个所述事件对中目标事件与候选事件之间的共指关系。
[0007]在一种实现方式中,所述将目标事件输入预先训练的粗筛模型,在预先建立的存
量事件库中检索得到与所述目标事件对应的候选事件池,包括:将目标事件输入预先训练的粗筛模型,对所述目标事件进行编码,得到所述目标事件对应的目标向量;获取预先建立的存量事件库,所述存量事件库中包括存量事件及与所述存量事件对应的存量向量,所述存量向量是利用预先训练的粗筛模型对所述存量事件进行编码得到;根据所述目标向量,在所述存量事件库中进行向量检索,得到向量表征池,所述向量表征池中包括与所述目标向量对应的所有目标存量向量;获取与所述目标存量向量对应的目标存量事件,将所述目标存量事件作为所述目标事件对应的候选事件,所有所述候选事件形成候选事件池;其中,所述目标事件和所述存量事件均是由上游的事件抽取模型抽取得到事件信息后,将所述事件信息拼接而成。
[0008]在一种实现方式中,将各个所述事件对输入预先训练的精筛模型,确定各个所述事件对中目标事件与候选事件之间的共指关系,包括:将每个所述事件对中的目标事件和候选事件进行文本拼接,得到各个事件对拼接文本;将每个所述事件对拼接文本输入预先训练的精筛模型,编码得到事件对的拼接向量;对所述拼接向量进行分类处理,得到概率评分结果,根据所述概率评分结果确定所述目标事件与所有所述候选事件之间的共指关系。
[0009]在一种实现方式中,对所述拼接向量进行分类处理,得到概率评分结果,根据所述概率评分结果确定所述目标事件与所有所述候选事件之间的共指关系之后,还包括:若所述目标事件与所述候选事件之间满足共指关系,则将所述目标事件与所述候选事件聚集为事件簇。
[0010]在一种实现方式中,对所述拼接向量进行分类处理,得到概率评分结果,根据所述概率评分结果确定所述目标事件与所有所述候选事件之间的共指关系之后,还包括:若所述目标事件与所述候选事件之间不满足共指关系,则将所述目标事件以及与所述目标事件对应的目标向量加入到所述存量事件库中,所述目标事件作为新的存量事件,所述目标向量作为新的存量向量。
[0011]在一种实现方式中,所述粗筛模型的训练步骤包括:获取第一训练集,利用自监督学习及对比学习训练初始粗筛模型,得到已训练的粗筛模型。
[0012]在一种实现方式中,所述获取第一训练集,利用自监督学习及对比学习训练初始粗筛模型,得到已训练的粗筛模型,包括:获取第一训练集,所述第一训练集中包括第一训练事件;将经遮盖字符处理的第一训练事件输入初始粗筛模型中,进行遮盖字符的预测,计算交叉熵损失;将构造为三元组的第一训练事件输入初始粗筛模型,利用Triplet损失函数进行对比学习训练,计算Triplet损失;
将所述交叉熵损失与所述Triplet损失之和作为最终损失,当所述最终损失达到平稳,训练完成,得到已训练的粗筛模型。
[0013]在一种实现方式中,所述第一训练事件的事件文本表示为事件抽取模型抽取得到事件信息后,将所述事件信息拼接而成。
[0014]在一种实现方式中,所述精筛模型的训练步骤包括:获取第二训练集,所述第二训练集中包括第二训练事件;将所述第二训练事件输入已训练的粗筛模型,编码后得到所述第二训练事件对应的第二训练向量;根据所述第二训练向量在预先建立的存量训练事件池中进行向量检索,所述存量训练事件池中包括:存量训练事件,以及与所述存量训练事件对应的存量训练向量,所述存量训练向量是利用已训练的粗筛模型对所述存量训练事件进行编码得到;经向量检索后得到训练向量表征池,所述训练向量表征池中包括与所述第二训练向量对应的所有目标存量训练向量;根据各个所述目标存量训练向量得到对应的目标存量训练事件,将所述目标存量训练事件作为所述第二训练事件对应的训练候选事件,所有所述训练候选事件形成训练候选事件池;构造所述第二训练事件与各个训练候选事件之间的训练事件对;将经人工标注处理后的所述训练事件对输入初始精筛模型,对所述初始精筛模型进行训练;训练完成,得到已训练的精筛模型。
[0015]在一种实现方式中,所述存量训练事件的事件文本表示为上游的事件抽取模型抽取得到事件信息后,将所述事件信息拼接而成,所述第二训练集中的第二训练事件是在所述存量训练事件池中随机抽取得来。
[0016]在一种实现方式中,将所述第二训练事件输入已训练的粗筛模型,编码后得到所述第二训练事件对应的第二训练向量之前,还包括:预先在所述第二训练事件的事件文本表示中加入对应的原始文本、原始文本的前后字符,以及指示各要素的特殊字符,所述特殊字符的嵌入为随机初始化得来。
[0017]在一种实现方本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种事件共指消解方法,其特征在于,包括:将目标事件输入预先训练的粗筛模型,在预先建立的存量事件库中检索得到与所述目标事件对应的候选事件池;构造所述目标事件与所述候选事件池中各个候选事件之间的事件对;将各个所述事件对输入预先训练的精筛模型,确定各个所述事件对中目标事件与候选事件之间的共指关系。2.根据权利要求1所述的事件共指消解方法,其特征在于,所述将目标事件输入预先训练的粗筛模型,在预先建立的存量事件库中检索得到与所述目标事件对应的候选事件池,包括:将目标事件输入预先训练的粗筛模型,对所述目标事件进行编码,得到所述目标事件对应的目标向量;获取预先建立的存量事件库,所述存量事件库中包括存量事件及与所述存量事件对应的存量向量,所述存量向量是利用预先训练的粗筛模型对所述存量事件进行编码得到;根据所述目标向量,在所述存量事件库中进行向量检索,得到向量表征池,所述向量表征池中包括与所述目标向量对应的所有目标存量向量;获取与所述目标存量向量对应的目标存量事件,将所述目标存量事件作为所述目标事件对应的候选事件,所有所述候选事件形成候选事件池;其中,所述目标事件和所述存量事件均是由上游的事件抽取模型抽取得到事件信息后,将所述事件信息拼接而成。3.根据权利要求2所述的事件共指消解方法,其特征在于,将各个所述事件对输入预先训练的精筛模型,确定各个所述事件对中目标事件与候选事件之间的共指关系,包括:将每个所述事件对中的目标事件和候选事件进行文本拼接,得到各个事件对拼接文本;将每个所述事件对拼接文本输入预先训练的精筛模型,编码得到事件对的拼接向量;对所述拼接向量进行分类处理,得到概率评分结果,根据所述概率评分结果确定所述目标事件与所有所述候选事件之间的共指关系。4.根据权利要求3所述的事件共指消解方法,其特征在于,对所述拼接向量进行分类处理,得到概率评分结果,根据所述概率评分结果确定所述目标事件与所有所述候选事件之间的共指关系之后,还包括:若所述目标事件与所述候选事件之间满足共指关系,则将所述目标事件与所述候选事件聚集为事件簇。5.根据权利要求3所述的事件共指消解方法,其特征在于,对所述拼接向量进行分类处理,得到概率评分结果,根据所述概率评分结果确定所述目标事件与所有所述候选事件之间的共指关系之后,还包括:若所述目标事件与所述候选事件之间不满足共指关系,则将所述目标事件以及与所述目标事件对应的目标向量加入到所述存量事件库中,所述目标事件作为新的存量事件,所述目标向量作为新的存量向量。6.根据权利要求1所述的事件共指消解方法,其特征在于,所述粗筛模型的训练步骤包括:
获取第一训练集,利用自监督学习及对比学习训练初始粗筛模型,得到已训练的粗筛模型。7.根据权利要求6所述的事件共指消解方法,其特征在于,所述获取第一训练集,利用自监督学习及对比学习训练初始粗筛模型,得到已训练的粗筛模型,包括:获取第一训练集,所述第一训练集中包括第一训练事件;将经遮盖字符处理的第一训练事件输入初始粗筛模型中,进行遮盖字符的预测,计算交叉熵损失;将构造为三元组的第一训练事件输入初始粗筛模型,利用Triplet损失函数进行对比学习训练,计算Triplet损失;将所述交叉熵损失与所述Triplet损失之和作为最终损失,当所述最终损失达到平稳,训练完成,得到已训练的粗筛模型。8.根据权利要求6所述的事件共指消解方法,其特征在于,所述第一训练事件的事件文本表示为事件抽取模型抽取得到事件信息后,将所述事...

【专利技术属性】
技术研发人员:杨海钦叶俊鹏
申请(专利权)人:粤港澳大湾区数字经济研究院福田
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1