【技术实现步骤摘要】
一种基于深度学习的感性词向量及情感分类方法
本专利技术属于自然语言处理
,涉及一种基于深度学习的感性词向量及情感分类方法。
技术介绍
随着信息技术的高速发展,网络、信息化技术以一种前所未有的速度迅速影响着人们的生活。与此同时,推特(Twitter)、脸书(Facebook)、微博等社交平台和亚马逊(Amazon)、京东、天猫等电子商务平台的兴起,网络上的评论性文本资源与日俱增。面对来自这些平台的大量非结构化的评论词语和文本,迫切需要通过自然语言处理技术对用户评论词语所表达的情感倾向进行分析判断,作为用户,可以利用这些感性分析的结果扩大自己的选择对象,也可以对某些产品或者相关事件有一个全面的认识,做出更加有利于自己的抉择;作为企业,通过感性分析过程可获取用户的心理需求,做出具有针对性的措施,制定更为合理的业务服务体系,提高自己的产品消费利益;作为政府,可以从群众对社会热点问题的评论情感分析中,及时了解民众心理,发现社会舆情以及舆情走势,更好的处理各种社会问题,改进政府的方针政策和引导群众舆论走向。中文信息处理一般是以词语为单位,评论文本是由若干个中文句子组成的 ...
【技术保护点】
一种基于深度学习的感性词向量及情感分类方法,其特征在于,首先进行词的上下文模型的最小化处理,其次,向处理后的词的上下文模型中加入情感信息,构建出感性词向量,最后,通过主动深度置信网络方法并结合感性词向量进行评论文档的半监督情感的分类。
【技术特征摘要】
1.一种基于深度学习的感性词向量及情感分类方法,其特征在于,首先进行词的上下文模型的最小化处理,其次,向处理后的词的上下文模型中加入情感信息,构建出感性词向量,最后,通过主动深度置信网络方法并结合感性词向量进行评论文档的半监督情感的分类。2.如权利要求1所述的一种基于深度学习的感性词向量及情感分类方法,其特征在于,所述词的上下文模型的最小化处理,具体按照如下步骤实施:步骤1、首先构建词的上下文模型,hi={wi-c,wi-c+1,...,wi-1,wi+1,...,wi+c-1,wi+c};其中,wi表示在句子中索引为i的预测目标词,hi是一个句子中wi的上下文词;步骤2、由层lookup→linear→hTanh→linear→softmax组成的前馈神经网络计算得出wi的条件概率为:式(1)中,D表示词表中的词,w表示D的上下文,θ表示后验概率参数,wn为人为噪声,得分函数fθ(wi,hi)的表达式为步骤3、将步骤2的条件概率中的真实上下文词语对(wi,hi)和人工噪声词语对(wn,hi)进行边缘化的比对,并用合页函数进行最小化处理,具体处理公式如下:式(2)中,T是训练语料。3.如权利要求2所述的一种基于深度学习的感性词向量及情感分类方法,其特征在于,所述步骤2中前馈神经网络中各层的具体计算过程如下:在Lookup层中,将每个词映射到查找表LT∈Rd×|V|中让其成为连续的词向量,其中,d是每个词向量的维度,V是词向量的大小,L是测试语料,T是训练语料,使用一个除了第i个索引之外的所有位置为零的二进制向量idxi进行映射,具体的映射函数为:ei=LT·idxi∈Rd×1(3),经映射得出,连续上下文的词向量为:Olookup=[ei-c;...ei-1,ei+1...;ei+c]∈R1×d·2c(4),并作为Lookup层的输出,式(4)中,c为窗口的大小;将OLookup送至Linear层进行维度变换,具体的变化公式为:Ol1=Wl1·Olookup+bl1(5),式(5)中,Wl1∈R2c×len是位置相关的权值,bl1∈R1×len是Linear层的偏置,len是线性层输出向量的Ol1长度;在hTanh层通过hTanh函数计算并输出Ohtanh∈R1×len向量,其中,hTanh函数表示如下:将Ohtanh∈R1×len向量继续送至Linear层进行维度变换,最后在softmax层中计算得出条件概率P(wi|hi),计算公式为:条件概率P(wi|hi)是softmax层输出层的第...
【专利技术属性】
技术研发人员:姚全珠,祝元勃,费蓉,张生杰,
申请(专利权)人:西安理工大学,
类型:发明
国别省市:陕西,61
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。