System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 一种用户信息增强的长文本细粒度情感分析方法技术_技高网

一种用户信息增强的长文本细粒度情感分析方法技术

技术编号:40638700 阅读:5 留言:0更新日期:2024-03-13 21:21
本发明专利技术提供一种用户信息增强的长文本细粒度情感分析方法,本发明专利技术通过全局信息引导的编码模块把文档级的全局信息引入层次Transformer子模块中,以更好地学习文档的语义表示,用户表示的学习和集成模块通过一个共享网络在相似用户之间共享信息,以学习更好的用户表示,继而集成用户表示到Transformer层的多头注意力机制和多层前向神经网络中,以建模用户情感表达的偏好,通过融合对比学习的总代价计算模块计算模型训练的总代价,本发明专利技术提出的方法能够较好地学习长文本的语义表示、有效地利用用户信息、能够准确区分细粒度的情感,分析性能较现有的方法有实质性的提高。

【技术实现步骤摘要】

本专利技术涉及自然语言处理,特别是涉及一种用户信息增强的长文本细粒度情感分析方法


技术介绍

1、情感分析旨在自动判断给定文本的情感倾向,是自然语言处理领域的热点问题之一。情感分析的结果有利于信息检索、产品推荐和智能客服等众多上层自然语言处理应用。依据情感分析对象粒度的不同,可以分为篇章级情感分类、句子级情感分类和方面级情感分类。通常把情感分析看作一个分类问题,输入待分析的文本,输出文本中表达的是正面、中性或者负面情感。有些真实应用场景下还需要更细的情感粒度,例如,分为极正面、正面、中性、负面和极负面五类。

2、随着互联网的兴起与迅速发展,诸如微博、影评网站和短视频平台等社交媒体产生了大量的篇幅较长的评论文本,这些评论文本反映了用户对特定事物或商品的情感倾向。对这类长文本进行情感信息挖掘具有较大的现实意义。例如,通过挖掘用户对商品的喜好,不仅可以帮助公司精准定位产品升级方向,还可以辅助消费者挑选更合适的商品。

3、然而现有的长文本细粒度情感分析模型面临以下三个方面的问题:

4、1)不能较好地学习长文本的语义表示。在自然语言处理领域常用的bert等模型大都基于句子级的数据进行预训练,直接用于长文本(文档或篇章)效果并不理想。此外,bert等模型通常会限制输入文本的长度,在应用于长文本时需要截断输入文本,导致部分信息的丢失。有的研究人员使用层次化的transformer结构建模长文本,其首先基于句子级的transformer层分别学每个句子的语义表示,然后基于文档级的transformer层学习整个文档的语义表示。然而,长文本中用户的情感倾向往往是比较复杂的,例如,用户在一篇评论中可能表达对酒店的服务比较满意、对地理位置也比较满意,但不喜欢菜的口味。因此,如何利用全局信息引导长文本的建模,以更好地表达用户复杂的情感倾向,是一个值得研究的问题;

5、2)不能有效地利用用户信息。不同的用户可能用相同的词或句子表达不同的情感倾向。例如,不同的用户可能用“喜欢”表达“极正面”或“正面”的情感。现有研究发现集成用户信息可以较大地提高情感分析的准确率,这类研究重点关注如何表示一个用户,以及如何把用户信息集成到情感分析模型中。一般而言,当用户发表的评论数较多的时候,可以较好地学习用户表示;反之,当用户发表的评论数较少时,学习其表示是非常困难的。如何更好地学习用户的语义表示是当前研究的热点问题之一。

6、3)不能准确区分细粒度的情感。极正面与正面(或极负面与负面)等相似情感类别的区分对现有模型来说比较困难。例如,在常用的yelp数据集上,约27%的“极正面”情感被误识别为“正面”情感,约30%的“极负面”情感被误识别为“负面”情感,约29%的“中性”情感被误识别为“正面”情感。现有方法在如何准确地区分细粒度的情感方面尚显不足。


技术实现思路

1、为此,本专利技术的实施例提出一种用户信息增强的长文本细粒度情感分析方法,以解决现有技术不能较好地学习长文本的语义表示、不能有效地利用用户信息、不能准确区分细粒度的情感的技术问题。

2、根据本专利技术一实施例的用户信息增强的长文本细粒度情感分析方法,应用于情感分析模型,所述情感分析模型包括全局信息引导的编码模块、用户表示的学习和集成模块、分类模块、融合对比学习的总代价计算模块;

3、所述全局信息引导的编码模块包括一个词嵌入层和多个层次transformer子模块,每个层次transformer子模块包括一个句子级transformer层和一个文档级transformer层;

4、所述方法包括:

5、在全局信息引导的编码模块中,通过词嵌入层得到词和句子的初始语义表示,再在文档级全局信息的引导下,句子级transformer层通过自注意力机制建模词与词之间、词与句子之间、词与文档之间的交互,优化词、句子和文档的语义表示,文档级transformer层在句子级transformer层输出的句子和文档表示的基础上,通过自注意力机制建模句子之间、句子与文档之间的交互,继续优化句子和文档的语义表示,最后基于各个层次transformer子模块的输出计算得到文档的最终语义表示;

6、在用户表示的学习和集成模块中,通过一个共享网络在相似用户之间共享信息,该共享网络是一个多层前向神经网络,以用户的初始语义表示为输入,输出用户的最终语义表示,进而把用户的最终语义表示集成到全局信息引导的编码模块的所有句子级transformer层和文档级transformer层中,以建模用户与词、用户与句子以及用户与文档之间的关系;

7、在分类模块中,根据文档的最终语义表示,计算得到分类结果,分类结果是一个 r维的向量, r表示情感类别的类别总数;

8、通过融合对比学习的总代价计算模块计算情感分析模型训练的总代价,引入对比学习策略缩小正训练实例对之间的语义表示距离,同时拉大负训练实例对之间的语义表示距离。

9、根据本专利技术实施例的用户信息增强的长文本细粒度情感分析方法,通过全局信息引导的编码模块把文档级的全局信息引入层次transformer子模块中,以更好地学习文档的语义表示,用户表示的学习和集成模块通过一个共享网络在相似用户之间共享信息,以学习更好的用户表示,继而集成用户表示到transformer层的多头注意力机制和多层前向神经网络中,以建模用户情感表达的偏好,此外,通过融合对比学习的总代价函数计算模块计算模型训练的总代价,引入对比学习策略缩小正训练实例对之间的语义表示距离,按一定的权重缩小不完全正训练对之间的语义表示距离,同时拉大负训练实例对之间的语义表示距离,使最终训练得到的情感分析模型能更好地区分细粒度的情感类别,因此,本专利技术提出的方法能够较好地学习长文本的语义表示、有效地利用用户信息、能够准确区分细粒度的情感,分析性能较现有的方法有实质性的提高。

本文档来自技高网...

【技术保护点】

1.一种用户信息增强的长文本细粒度情感分析方法,其特征在于,应用于情感分析模型,所述情感分析模型包括全局信息引导的编码模块、用户表示的学习和集成模块、分类模块、融合对比学习的总代价计算模块;

2.根据权利要求1所述的用户信息增强的长文本细粒度情感分析方法,其特征在于,所述词嵌入层满足以下条件式:

3.根据权利要求2所述的用户信息增强的长文本细粒度情感分析方法,其特征在于,全局信息引导的编码模块得到文档的最终语义表示的表达式为:

4.根据权利要求3所述的用户信息增强的长文本细粒度情感分析方法,其特征在于,用户表示的学习和集成模块满足以下条件式:

5.根据权利要求4所述的用户信息增强的长文本细粒度情感分析方法,其特征在于,分类模块满足以下条件式:

6.根据权利要求5所述的用户信息增强的长文本细粒度情感分析方法,其特征在于,所述融合对比学习的总代价计算模块包括交叉熵代价计算单元和对比学习代价计算单元;

【技术特征摘要】

1.一种用户信息增强的长文本细粒度情感分析方法,其特征在于,应用于情感分析模型,所述情感分析模型包括全局信息引导的编码模块、用户表示的学习和集成模块、分类模块、融合对比学习的总代价计算模块;

2.根据权利要求1所述的用户信息增强的长文本细粒度情感分析方法,其特征在于,所述词嵌入层满足以下条件式:

3.根据权利要求2所述的用户信息增强的长文本细粒度情感分析方法,其特征在于,全局信息引导的编码模块得到文档的最终...

【专利技术属性】
技术研发人员:邬昌兴陈家雨汪恒杨亚连
申请(专利权)人:华东交通大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1