关系抽取方法、装置、设备及计算机可读存储介质制造方法及图纸

技术编号:37105764 阅读:24 留言:0更新日期:2023-04-01 05:04
本发明专利技术公开了一种关系抽取方法、装置、设备及计算机可读存储介质。该关系抽取方法包括:获取待抽取文本;将所述待抽取文本输入至预训练模型,得到第一文本向量;将所述第一文本向量传入第一卷积神经网络的全连接层,使用半指针

【技术实现步骤摘要】
关系抽取方法、装置、设备及计算机可读存储介质


[0001]本专利技术涉及自然语言处理
,尤其涉及一种关系抽取方法、装置、设备及计算机可读存储介质。

技术介绍

[0002]信息抽取(information extraction),是从自然语言文本中抽取实体、属性、关系及事件等事实类信息的文本处理技术,是信息检索、智能问答、智能对话等人工智能应用的重要基础。信息抽取主要包括:实体抽取与链指、关系抽取和事件抽取。
[0003]关系抽取通常采用有监督学习的模式来实现,具体包括Pipline Model(串联模型)和Joint Model(联合模型)这两类。其中,Pipline Model是将实体抽取和关系抽取看作串联的任务、分步进行,没有考虑到两个子任务之间的相关性,从而导致关系抽取任务的结果严重依赖于实体抽取的结果,进而导致误差累积的问题;而Joint Model则是实体抽取与关系抽取同时进行,虽然表面上避免了误差累积,但其难以解决实体重叠、“一对多”等问题,即,其抽取结果的准确性较差。

技术实现思路

[0004]本专利技术的主要目的在于提供一种关系抽取方法、装置、设备及计算机可读存储介质,旨在实现在避免误差累积的同时提高关系抽取结果的准确性。
[0005]为实现上述目的,本专利技术提供一种关系抽取方法,所述关系抽取方法包括:
[0006]获取待抽取文本;
[0007]将所述待抽取文本输入至预训练模型,得到第一文本向量;
[0008]将所述第一文本向量传入第一卷积神经网络的全连接层,使用半指针

半标注结构预测得到主实体的首尾位置;
[0009]将所述第一文本向量传入自注意力网络层,得到第二文本向量;
[0010]将所述第二文本向量传入第二卷积神经网络的全连接层,使用多个半指针

半标注结构预测得到客实体的首尾位置和关系类型。
[0011]优选地,所述将所述待抽取文本输入至预训练模型,得到第一文本向量的步骤包括:
[0012]将所述待抽取文本按字进行拆分,得到分字集合;
[0013]将所述分字集合中的每一个字输入至预训练模型进行运算,得到与所述分字集合中每一个字对应的字向量,其中,第一文本向量是由每一个字对应的字向量组合得到的。
[0014]优选地,所述预训练模型为BERT模型,或BiLSTM

Attention神经网络模型。
[0015]优选地,所述预训练模型为预先训练好的BERT模型,或预先训练好的BiLSTM

Attention神经网络模型。
[0016]优选地,所述将所述待抽取文本输入至预训练模型,得到第一文本向量的步骤之前,所述关系抽取方法还包括:
[0017]获取原始文本集;
[0018]对所述原始文本集中的各原始文本进行标注,得到训练文本集;
[0019]通过所述训练文本集对预设模型进行训练,得到所述预训练模型。
[0020]优选地,所述将所述第二文本向量传入第二卷积神经网络的全连接层,使用多个半指针

半标注结构预测得到客实体的首尾位置和关系类型的步骤包括:
[0021]将所述第二文本向量传入第二卷积神经网络的全连接层,通过构建与关系类型相同数量的半指针

半标注结构,预测得到各种关系类型及其对应的客实体的首尾位置。
[0022]优选地,所述将所述第二文本向量传入第二卷积神经网络的全连接层,使用多个半指针

半标注结构预测得到客实体的首尾位置和关系类型的步骤之后,所述关系抽取方法还包括:
[0023]根据所述主实体的首尾位置从所述待抽取文本中提取得到目标主实体;
[0024]根据所述客实体的首尾位置从所述待抽取文本中提取得到目标客实体;
[0025]根据所述目标主实体、所述目标客实体和所述关系类型构建对应的关系三元组,并输出。
[0026]此外,为实现上述目的,本专利技术还提供一种关系抽取装置,所述关系抽取装置包括:
[0027]第一获取模块,用于获取待抽取文本;
[0028]第一输入模块,用于将所述待抽取文本输入至预训练模型,得到第一文本向量;
[0029]第一预测模块,用于将所述第一文本向量传入第一卷积神经网络的全连接层,使用半指针

半标注结构预测得到主实体的首尾位置;
[0030]第二输入模块,用于将所述第一文本向量传入自注意力网络层,得到第二文本向量;
[0031]第二预测模块,用于将所述第二文本向量传入第二卷积神经网络的全连接层,使用多个半指针

半标注结构预测得到客实体的首尾位置和关系类型。
[0032]此外,为实现上述目的,本专利技术还提供一种关系抽取设备,所述关系抽取设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的关系抽取程序,所述关系抽取程序被所述处理器执行时实现如上所述的关系抽取方法的步骤。
[0033]此外,为实现上述目的,本专利技术还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有关系抽取程序,所述关系抽取程序被处理器执行时实现如上所述的关系抽取方法的步骤。
[0034]本专利技术提供一种关系抽取方法、装置、设备及计算机可读存储介质,先获取待抽取文本,将待抽取文本输入至预训练模型,得到第一文本向量;然后,将第一文本向量传入第一卷积神经网络的全连接层,使用半指针

半标注结构预测得到主实体的首尾位置;进而,将第一文本向量传入自注意力网络层,得到第二文本向量,将第二文本向量传入第二卷积神经网络的全连接层,使用多个半指针

半标注结构预测得到客实体的首尾位置和关系类型。本专利技术中设计了新的网络结构实现关系抽取,主实体的预测过程与客实体、关系类型的预测过程是并列进行的,客实体、关系类型的预测不会依赖于主实体的预测结果,从而可避免现有技术中存在的误差累积的问题。同时,本专利技术利用概率图的思想结合半指针

半标注结构进行关系抽取,可解决一种关系对应多个实体的问题及实体重叠问题。因此,本专利技术可
实现在避免误差累积的同时提高关系抽取结果的准确性。
附图说明
[0035]图1为本专利技术实施例方案涉及的硬件运行环境的设备结构示意图;
[0036]图2为本专利技术关系抽取方法第一实施例的流程示意图;
[0037]图3为本专利技术关系抽取方法涉及的模型结构示意图;
[0038]图4为本专利技术关系抽取装置第一实施例的功能模块示意图。
[0039]本专利技术目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
[0040]应当理解,此处所描述的具体实施例仅仅用以解释本专利技术,并不用于限定本专利技术。
[0041]参照图1,图1为本专利技术实施例方案涉及的硬件运行环境的设备结构示意图。<本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种关系抽取方法,其特征在于,所述关系抽取方法包括:获取待抽取文本;将所述待抽取文本输入至预训练模型,得到第一文本向量;将所述第一文本向量传入第一卷积神经网络的全连接层,使用半指针

半标注结构预测得到主实体的首尾位置;将所述第一文本向量传入自注意力网络层,得到第二文本向量;将所述第二文本向量传入第二卷积神经网络的全连接层,使用多个半指针

半标注结构预测得到客实体的首尾位置和关系类型。2.如权利要求1所述的关系抽取方法,其特征在于,所述将所述待抽取文本输入至预训练模型,得到第一文本向量的步骤包括:将所述待抽取文本按字进行拆分,得到分字集合;将所述分字集合中的每一个字输入至预训练模型进行运算,得到与所述分字集合中每一个字对应的字向量,其中,第一文本向量是由每一个字对应的字向量组合得到的。3.如权利要求1所述的关系抽取方法,其特征在于,所述预训练模型为BERT模型,或BiLSTM

Attention神经网络模型。4.如权利要求1所述的关系抽取方法,其特征在于,所述预训练模型为预先训练好的BERT模型,或预先训练好的BiLSTM

Attention神经网络模型。5.如权利要求4所述的关系抽取方法,其特征在于,所述将所述待抽取文本输入至预训练模型,得到第一文本向量的步骤之前,所述关系抽取方法还包括:获取原始文本集;对所述原始文本集中的各原始文本进行标注,得到训练文本集;通过所述训练文本集对预设模型进行训练,得到所述预训练模型。6.如权利要求1至5中任一项所述的关系抽取方法,其特征在于,所述将所述第二文本向量传入第二卷积神经网络的全连接层,使用多个半指针

半标注结构预测得到客实体的首尾位置和关系类型的步骤包括...

【专利技术属性】
技术研发人员:刘光辉赵国庆权佳成
申请(专利权)人:北京中关村科金技术有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1