【技术实现步骤摘要】
一种基于注意力引导图LSTM关系提取方法及装置
[0001]本专利技术涉及自然语言处理
,特别涉及一种基于注意力引导图LSTM关系提取方法及装置。
技术介绍
[0002]现有关系抽取相关模型主要被分成基于序列以及基于依存关系这两种模型。当关系抽取模型是基于序列时是指该模型只是在单词序列上运行,使用卷积神经网络或循环神经网络把句子文本序列转化编码成为带有语境化或者上下文信息的特征。基于依存关系的模型的主要思想是将句子文本生成的依存树应用到模型中,依存树可以更好的表达句子中单词之间的句法依存关系,模型对其学习也能获取到更优的句子分布式表示。依存句法首先被提出是为了通过构建树形结构来描述出词语间存在的依存关系。
[0003]在当下的研究中,依存句法分析在自然语言处理领域可谓是用处颇广,它的主要作用是分析输入文本的句法结构,获取到与之对应的依存关系结构树。由于通过依存树获得的关键词的距离比直接进行处理的关键词的物理距离近的多,因此依存句法结构树在自然语言领域中起到了至关重要的作用。经过研究发现,基于序列的模型往往无法从词向量序列中获取到长期的句法关系,同时这些句法关系仅从表面形式是难以理解的,因而基于依存关系的模型在性能表现上通常会更加优异。然而,一整棵依存结构树中总是包含着一些对关系抽取任务无用的信息,那么如何屏蔽掉这些无关信息,很多研究者都为此提出了基于规则的剪枝策略。应用这种基于规则的硬性剪枝策略对依存树进行修剪,会产生更符合要求的子树结构,在将深度学习神经网络应用到上述产生的子树结构上,获取到句子文本中 ...
【技术保护点】
【技术特征摘要】
1.一种基于注意力引导图LSTM关系提取方法,其特征在于,包括:将需要进行关系抽取的文本进行预处理操作,得到原始邻接矩阵和包含上下文信息的词向量;将所述原始邻接矩阵转换成完全连通的边加权图邻接矩阵;将所述完全连通的边加权图邻接矩阵和包含上下文信息的词向量,输入图结构LSTM神经网络模型中,进行循环状态转换,得到实体隐藏状态数据;将所述实体隐藏状态数据输入逻辑回归分类器,输出所述文本的关系类别标签。2.如权利要求1所述的一种基于注意力引导图LSTM关系提取方法,其特征在于,所述将需要进行关系抽取的文本进行预处理操作,包括:将需要进行关系抽取的文本进行依存句法分析,得到原始依存树;根据所述原始依存树,获取原始依存矩阵;根据所述原始依存矩阵,获取每个单词的词向量;将所述词向量进行正向编码和反向编码,得到包含上下文信息的词向量。3.如权利要求2所述的一种基于注意力引导图LSTM关系提取方法,其特征在于,所述将词向量进行正向编码和反向编码,得到包含上下文信息的词向量,具体包括:将所述词向量输入双层LSTM神经网络模型中,对LSTM隐藏层进行计算:将所述词向量输入双层LSTM神经网络模型中,对LSTM隐藏层进行计算:将所述词向量输入双层LSTM神经网络模型中,对LSTM隐藏层进行计算:将所述词向量输入双层LSTM神经网络模型中,对LSTM隐藏层进行计算:将所述词向量输入双层LSTM神经网络模型中,对LSTM隐藏层进行计算:将所述词向量输入双层LSTM神经网络模型中,对LSTM隐藏层进行计算:其中,σ表示sigmoid激活函数,x
t
表示时间t时刻的输入向量,h
t
‑1表示隐藏状态,c
t
‑1表示当前时刻的信息流,表示x
t
在不同门机制上的权重矩阵,表示h
t
在不同门机制上的权重矩阵,表示c
t
在不同门机制上的权重矩阵,b
x
,x∈{i,f,g,o}表示偏差量,i,f,g,o表示输入向量;经过所述对LSTM隐藏层进行计算,得到t时刻所述词向量从左到右的正向输出向量表示和从右到左的反向输出向量表示根据所述词向量正向输出向量表示和反向输出向量表示得到所述词向量在t时刻最终向量h
t
表示如下:根据所述词向量最终向量表示,得到包含上下文信息的词向量。4.如权利要求1所述的一种基于注意力引导图LSTM关系提取方法,其特征在于,将所述
原始邻接矩阵转换成完全连通的边加权图邻接矩阵,包括:通过多头自注意力机制将所述原始邻接矩阵转换成完全连通的边加权图邻接矩阵,具体包括:输入所述原始邻接矩阵,建立注意力引导层模型,计算每组查询Query和键值Key
‑
Value:Q=XW
Q
K=XW
K
V=XW
V
其中,Q表示Query,K表示Key,V表示Value,X表示输入序列,W
Q
、W
K
和W
V
均表示权重矩阵;计算每组查询Query和键值Key
‑
Value相对应的权重值:其中,表示第t个头注意力得到的邻接矩阵,为Q对应的参数矩阵,为K对应的参数矩阵,Q、K和V均表示注意力引导层模型中L
‑
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。