一种评论文本观点信息处理方法、装置及存储介质制造方法及图纸

技术编号:25950282 阅读:33 留言:0更新日期:2020-10-17 03:42
本发明专利技术提出了一种评论文本观点信息处理方法、装置及存储介质,该方法包括:对评论文本进行预处理得到该评论文本的低层语义表示;使用自注意力机制对所述低层语义表示进行量化词级特征间的语义关系并对上下文的局部语义特征进行编码得到编码结果;构建所述评论文本的句法依存树,使用所述编码结果初始化所述句法依存树,通过训练好的图注意力网络GAT获得评论文本的观点信息。本发明专利技术使用句法依存树将文本抽象的句法结构显式地表现出来,使用GAT更好的捕捉词级特征中的依存关系;考虑到注意力机制很难处理评论文本中重叠的观点极性特征,引入注意力正则作为损失项来分离重叠特征,有效地提高了观点分类的效果。

【技术实现步骤摘要】
一种评论文本观点信息处理方法、装置及存储介质
本专利技术涉及自然语言处理及人工智能
,具体涉及一种评论文本观点信息处理方法、装置及存储介质。
技术介绍
社交网络(如博客、论坛或社会服务网络等)的发展产生了大量的用户参与的有价值的评论信息,这些评论信息反映了用户的各种情感色彩和倾向性,如喜、怒、哀、乐和批评、赞扬等。而随着评论信息的泛滥,一般的用户很难定位并识别自己感兴趣的内容并提取其中的观点。文本观点分析(又称情感分析、倾向性分析),作为自然语言处理中最活跃的研究领域之一,其目的就是通过总结和挖掘大众舆论对诸如产品、服务或组织等实体的观点、情感和态度,从而为组织者或潜在用户提供准确的决策。当前技术中,主流的观点分析方法都是基于循环神经网络和注意力机制来识别观点上下文并提取语义特征的,虽然取得了不错的效果,但对于评论文本,模型的能力有限,导致分析出的观点准确度低,影响了用户体验。首先,评论文本中往往包含用户对同一评论实体不同特征/方面辩证的观点,这些观点的极性通常是相反的,因此需要对文本中所有的观点极性进行判断,仅使用注意力机制很难捕捉给定方面的观点上下文并量化其影响;其次,循环神经网络顺序地建模文本的上下文语义特征,这种处理方式忽略了文本的句法结构,因此很难对特定的方面及其上下文的依存关系进行建模,即当前普通神经网络模型特征提取能力有限,影响了观点分析的准确性。
技术实现思路
本专利技术针对上述现有技术中一个或多个技术缺陷,提出了如下技术方案。一种评论文本观点信息处理方法,该方法包括:预处理步骤,对评论文本进行预处理得到该评论文本的低层语义表示;编码步骤,使用自注意力机制对所述低层语义表示进行量化词级特征间的语义关系并对上下文的局部语义特征进行编码得到编码结果;识别步骤,构建所述评论文本的句法依存树,使用所述编码结果初始化所述句法依存树,通过训练好的图注意力网络GAT提取给定方面节点的子树的句法特征,在GAT网络相邻层特征传播的过程中,通过计算邻域节点的注意力系数,来更新给定方面节点的隐藏状态,将该隐藏状态作为评论文本的最终表示进行观点分类,得到所述评论文本的观点信息。更进一步地,所述对评论文本进行预处理得到该评论文本的低层语义表示的操作为:对所述评论文本进行分词处理后得到一词列表,通过词向量模型将所述词列表中的词语都转换文本向量E:E=[w0,w1,…,wi,…,wn];其中,dw为词向量维度,N为文本长度;wi表示该文本的第i个词语的词向量,n为词语的总个数;计算词列表中的方面词的位置向量P,P=(P2t(p),P2t-1(p)),其中,其中,P2t(p)和P2t-1(p)分别表示相对位置为p时,其位置向量的奇、偶数位置的值;dp为位置向量的维度,p的计算方式为:方面词与自身的相对位置为0,与相邻词的相对位置为1,以此类推;将词向量E与位置向量P输入至双向门控循环单元Bi-GRU分别获取所述评论文本前、后向的隐藏状态,并拼接前、后向隐藏状态作为评论文本的低层语义表示,其中,其中,为前、后向的隐藏状态;为评论文本的低层语义表示;dh为Bi-GRU细胞元的隐藏节点数;||表示拼接操作。更进一步地,所述编码步骤的操作为:将所述低层语义表示H转换为查询矩阵、键矩阵和值矩阵,根据查询矩阵和键矩阵相似度计算得到权重,使用自注意力机制将归一化的权重与相应值向量的加权和作为上下文的最终编码结果T:其中,为分别为评论文本的上下文的查询矩阵、键矩阵、值矩阵,dk为线性变换的转换维度;其中,使用正交正则化来约束自注意过程中不同方面对上下文注意力系数的分配;其中,Y∈RZ×N为方面词的注意力矩阵,Z为文本中包含的方面词个数,Y中每一行向量即为给定方面词对文本所有词分配的注意力系数;I为单位矩阵;为矩阵的二范数。更进一步地,所述识别步骤的操作为:构建所述评论文本的句法依存树,使用所述编码结果初始化所述句法依存树,将所述给定方面词映射到所述句法依存树的给定方面节点,使用所述GAT网络提取给定方面节点的子树的句法特征,在GAT网络相邻层特征传播的过程中,通过计算邻域节点的注意力系数,来更新给定方面节点的隐藏状态;其中,为GAT网络第l层的线性转换矩阵;为节点i对其邻域节点s在第m个注意力头中的注意力系数;为连接层之间的权重矩阵;N[i]为i节点的邻域;M为注意力头的个数;则:H(l|+1)=GAT(H(l),A;Θ(l))其中,A为给定方面节点的子树的邻接矩阵,ais为邻接矩阵中的元素;Θ(l)为第l层的网络参数;使用给定方面节点的隐藏状态作为所述评论文本的最终表示进行观点分类,得到所述评论文本的观点信息。5.根据权利要求4所述的方法,其特征在于,基于多个方面的分类结果、L2正则和注意力正则计算损失来指导所述GAT网络的训练,j为给定方面节点,r为GAT网络的层数,则有:其中,为线性转换矩阵,C为观点类别个数;S[C]为观点类别集合;b为偏置项;||Θ||2为GAT网络中所有的权重参数的L2正则;λ1,λ2均为超参数。本专利技术还提出了一种评论文本观点信息处理装置,该装置包括:预处理单元,对评论文本进行预处理得到该评论文本的低层语义表示;编码单元,使用自注意力机制对所述低层语义表示进行量化词级特征间的语义关系并对上下文的局部语义特征进行编码得到编码结果;识别单元,构建所述评论文本的句法依存树,使用所述编码结果初始化所述句法依存树,通过训练好的图注意力网络GAT提取给定方面节点的子树的句法特征,在GAT网络相邻层特征传播的过程中,通过计算邻域节点的注意力系数,来更新给定方面节点的隐藏状态,将该隐藏状态作为评论文本的最终表示进行观点分类,得到所述评论文本的观点信息。更进一步地,所述对评论文本进行预处理得到该评论文本的低层语义表示的操作为:对所述评论文本进行分词处理后得到一词列表,通过词向量模型将所述词列表中的词语都转换文本向量E:E=[w0,w1,…,wi,…,wn];其中,dw为词向量维度,N为文本长度;wi表示该文本的第i个词语的词向量,n为词语的总个数;计算词列表中的方面词的位置向量P,P=(P2t(p),P2t-1(p)),其中,其中,P2t(p)和P2t-1(p)分别表示相对位置为p时,其位置向量的奇、偶数位置的值;dp为位置向量的维度,p的计算方式为:方面词与自身的相对位置为0,与相邻词的相对位置为1,以此类推;将词向量E与位置向量P输入至双向门控循环单元Bi-GRU分别获取所述评论文本前、后向的隐藏状态,并拼接前、后向隐藏状态作为评论文本的低层语义表示,其中,其中,为前、后向的隐藏状态;本文档来自技高网...

【技术保护点】
1.一种评论文本观点信息处理方法,其特征在于,该方法包括:/n预处理步骤,对评论文本进行预处理得到该评论文本的低层语义表示;/n编码步骤,使用自注意力机制对所述低层语义表示进行量化词级特征间的语义关系并对上下文的局部语义特征进行编码得到编码结果;/n识别步骤,构建所述评论文本的句法依存树,使用所述编码结果初始化所述句法依存树,通过训练好的图注意力网络GAT提取给定方面节点的子树的句法特征,在GAT网络相邻层特征传播的过程中,通过计算邻域节点的注意力系数,来更新给定方面节点的隐藏状态,将该隐藏状态作为评论文本的最终表示进行观点分类,得到所述评论文本的观点信息。/n

【技术特征摘要】
1.一种评论文本观点信息处理方法,其特征在于,该方法包括:
预处理步骤,对评论文本进行预处理得到该评论文本的低层语义表示;
编码步骤,使用自注意力机制对所述低层语义表示进行量化词级特征间的语义关系并对上下文的局部语义特征进行编码得到编码结果;
识别步骤,构建所述评论文本的句法依存树,使用所述编码结果初始化所述句法依存树,通过训练好的图注意力网络GAT提取给定方面节点的子树的句法特征,在GAT网络相邻层特征传播的过程中,通过计算邻域节点的注意力系数,来更新给定方面节点的隐藏状态,将该隐藏状态作为评论文本的最终表示进行观点分类,得到所述评论文本的观点信息。


2.根据权利要求1所述的方法,其特征在于,所述对评论文本进行预处理得到该评论文本的低层语义表示的操作为:
对所述评论文本进行分词处理后得到一词列表,通过词向量模型将所述词列表中的词语都转换文本向量E:
E=[w0,w1,…,wi,…,wn];
其中,dw为词向量维度,N为文本长度;wi表示该文本的第i个词语的词向量,n为词语的总个数;
计算词列表中的方面词的位置向量P,P=(P2t(p),P2t-1(p)),其中,






其中,P2t(p)和P2t-1(p)分别表示相对位置为p时,其位置向量的奇、偶数位置的值;dp为位置向量的维度,p的计算方式为:方面词与自身的相对位置为0,与相邻词的相对位置为1,以此类推;
将词向量E与位置向量P输入至双向门控循环单元Bi-GRU分别获取所述评论文本前、后向的隐藏状态,并拼接前、后向隐藏状态作为评论文本的低层语义表示,其中,






其中,为前、后向的隐藏状态;为评论文本的低层语义表示;dh为Bi-GRU细胞元的隐藏节点数;||表示拼接操作。


3.根据权利要求2所述的方法,其特征在于,所述编码步骤的操作为:
将所述低层语义表示H转换为查询矩阵、键矩阵和值矩阵,根据查询矩阵和键矩阵相似度计算得到权重,使用自注意力机制将归一化的权重与相应值向量的加权和作为上下文的最终编码结果T:



其中,为Q,K,分别为评论文本的上下文的查询矩阵、键矩阵、值矩阵,dk为线性变换的转换维度;
其中,使用正交正则化来约束自注意过程中不同方面对上下文注意力系数的分配;



其中,Y∈RZ×N为方面词的注意力矩阵,Z为文本中包含的方面词个数,Y中每一行向量即为给定方面词对文本所有词分配的注意力系数;I为单位矩阵;为矩阵的二范数。


4.根据权利要求3所述的方法,其特征在于,所述识别步骤的操作为:构建所述评论文本的句法依存树,使用所述编码结果初始化所述句法依存树,将所述给定方面词映射到所述句法依存树的给定方面节点,使用所述GAT网络提取给定方面节点的子树的句法特征,在GAT网络相邻层特征传播的过程中,通过计算邻域节点的注意力系数,来更新给定方面节点的隐藏状态;






其中,为GAT网络第1层的线性转换矩阵;为节点i对其邻域节点s在第m个注意力头中的注意力系数;为连接层之间的权重矩阵;N[i]为i节点的邻域;M为注意力头的个数;
则:
H(l+1)=GAT(H(l),A;Θ(l))



其中,A为给定方面节点的子树的邻接矩阵,ais为邻接矩阵中的元素;Θ(l)为第1层的网络参数;
使用给定方面节点的隐藏状态作为所述评论文本的最终表示进行观点分类,得到所述评论文本的观点信息。


5.根据权利要求4所述的方法,其特征在于,基于多个方面的分类结果、L2正则和注意力正则计算损失来指导所述GAT网络的训练,j为给定方面节点,r为GAT网络的层数,则有:






其中,为线性转换矩阵,C为观点类别个数;S[C]为观点类别集合;b为偏置项;||Θ||2为GAT网络中所有的权重参数的L2正则;λ1,λ2均为超参数。


6.一种评论文本观点信息处理装置,其特征在于,该装置包括:
预处理单元...

【专利技术属性】
技术研发人员:蒋卓赵伟李文瑞赵建强张辉极韩冰欧荣安贾东剑
申请(专利权)人:厦门市美亚柏科信息股份有限公司
类型:发明
国别省市:福建;35

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1