System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind()
【技术实现步骤摘要】
本专利技术涉及多模态情感分析,具体涉及基于多视角的双极性相似融合网络的多模态情感分析方法。
技术介绍
1、在实体级多模态情感分析中,实体特征发挥着重要的作用,实体在整个特征融合流程扮演着指引者的作用,引导其他模态特征挖掘有效信息。因此,在设计模型的时候应该将关注点更多的放在实体特征与其他特征的交互行为上。
2、现有的模型使用了实体引导生成文本特征和视觉特征,前者使用了低秩双线性池算子模型获得引导信息,后者使用transformer编码器作为引导器。此外,还通过深度过滤器对视觉特征进行过滤,去除了视觉特征中存在的噪声。
3、但是,在视觉特征提取过程中,现有的模型在视觉特征提取过程中,仅通过一种视角来理解图像,这可能导致对图像的理解过于片面,因此对于某些具有丰富内容的图像来说将会损失掉部分信息。此外,现有的模型重点关注实体特征的引导作用,而轻视了其他特征之间的交互作用。
4、综合上述,现有多模态情感分析对图像的理解过于片面,影响多模态情感分析的识别精度,亟需提出基于多视角的双极性相似融合网络的多模态情感分析方法,提升多模态情感分析的识别精度。
技术实现思路
1、为解决上述问题,本专利技术提供基于多视角的双极性相似融合网络的多模态情感分析方法,用于充分理解图像,提升图文多模态情感分析的识别精度。
2、为了实现上述目的,本专利技术的技术方案如下:基于多视角的双极性相似融合网络的多模态情感分析方法,包括如下步骤:
3、s1:将上下文
4、s2:提取面向对象的图像特征ho,以及面向场景的图像特征hs;
5、s3:构建跨模态双极相似性计算模块,通过跨模态双极相似性计算模块得到视觉特征hvisual;
6、s4:构建视觉相关的文本表示模块,通过视觉相关的文本表示模块得到文本特征htext;
7、s5:构建多模态表示模块,通过多模态表示模块得到多模态特征hfinal;
8、s6:使用一个非线性转换层和softmax分类器计算多模态特征hfinal的情感概率取值,计算过程如下:
9、p(y|hfinal)=softmax(wthfinal+b)
10、其中,wt和b分别为权重矩阵和偏置项,p即为模型预测的情感标签。
11、进一步,提取面向对象的图像特征ho,步骤如下:
12、s211:使用faster r-cnn来提取每个区域的视觉特征;
13、s212:选择提取图像中具有最高置信度的候选框作为图像对象的内容表示;
14、s213:使用平均池化卷积特征作为该区域的特征向量;
15、s214:使用非线性变换,使图像对象特征对其齐到文本特征,具体表示如下:
16、o=faster rcnn(x)
17、ho=woo
18、其中,wo为可学习参数;由此得到面向对象的图像特征ho。
19、进一步,提取面向场景的图像特征hs,步骤如下:
20、s221:使用vgg模型来提取每个区域的视觉特征;
21、s222:选择提取图像中具有最高置信度的候选框作为图像对象的内容表示;
22、s223:使用平均池化卷积特征作为该区域的特征向量;
23、s224:使用非线性变换,将场景图像特征转换到文本特征的语义空间中,具体表示如下:
24、s=vgg(x)
25、hs=wss
26、其中,ws为可学习参数;由此得到了面向场景的图像特征hs。
27、进一步,跨模态双极相似性计算模块得到视觉特征hvisual,步骤如下:
28、s301:通过计算得到相似矩阵s∈rm*n,其中,m和n分别表示场景特征数和文本上下文特征数;
29、s302:计算正极相似性得分,将正极相似性得分进行softmax计算分别得到正极文本上下文特征和正极图像场景特征计算过程如下:
30、
31、
32、s303:计算负极相似性得分,通过负极相似矩阵分别计算出负极文本上下文特征和负极图像场景特征计算过程如下:
33、
34、
35、其中,c为任意常数;
36、s304:使用全连接层聚合正、负极特征,得到最终的双极上下文特征和双极场景特征计算过程如下:
37、
38、
39、其中,wc和ws均属于可学习参数,bi和bj是两个偏置项;
40、s305:将双极场景特征和图像对象特征ho进行拼接,得到最终的视觉特征hvisual:
41、
42、进一步,相似性得分的计算为:
43、加法计算:s=wstanh(hs+hc)
44、或缩放点积计算:
45、其中,ws属于可学习参数,d表示维度数,相似矩阵s中的第i行表示第i个图像场景特征与所有文本上下文特征的相似度得分,第j列表示第j个文本上下文特征与所有图像场景特征的相似度得分。
46、进一步,视觉相关的文本表示模块得到文本特征htext,步骤如下:
47、s401:将实体特征作为查询向量,将文本上下文特征作为被查询向量和内容向量,通过transformer编码器计算注意力向量,得到实体引导的文本上下文特征hec;
48、s402:将图像对象特征作为查询向量,将文本上下文特征作为被查询向量和内容向量,通过transformer编码器计算注意力向量,得到图像对象引导的文本上下文特征hoc;
49、s403:将实体引导的文本上下文特征hec、图像对象引导的文本上下文特征hoc、实体特征he和双极上下文特征进行拼接,得到最终的文本特征htext:
50、
51、进一步,多模态表示模块得到多模态特征hfinal,步骤如下:
52、s501:使用低秩双线性池算子模型来捕获最终特征之间的交互信息:
53、
54、其中,wt、wv和pt是可学习参数,bf是偏置项,σ是非线性变换函数tan h,表示矩阵之间的对应元素相乘;
55、s502:将文本特征和视觉特征拼接到交互信息中,从而得到最终的多模态特征:
56、
57、进一步,构建基于权利要求1-7中任意一项所述的基于多视角的双极性相似融合网络的多模态情感分析方法的神经网络模型,并对神经网络模型进行训练:
58、采用带有l2正则化的交叉熵作为损失函数对模型进行训练,具体表示如下:
59、
60、其中,代表实验文本的实际标签,i表示的是总训练样本的第i个样本,j是情感类别的数目,值设置为3,具体对应积极、消极和中立;p为本文档来自技高网...
【技术保护点】
1.基于多视角的双极性相似融合网络的多模态情感分析方法,其特征在于,包括如下步骤:
2.根据权利要求1所述的基于多视角的双极性相似融合网络的多模态情感分析方法,其特征在于,提取面向对象的图像特征Ho,步骤如下:
3.根据权利要求1所述的基于多视角的双极性相似融合网络的多模态情感分析方法,其特征在于,提取面向场景的图像特征Hs,步骤如下:
4.根据权利要求1所述的基于多视角的双极性相似融合网络的多模态情感分析方法,其特征在于,跨模态双极相似性计算模块得到视觉特征Hvisual,步骤如下:
5.根据权利要求4所述的基于多视角的双极性相似融合网络的多模态情感分析方法,其特征在于,相似性得分的计算为:
6.根据权利要求4所述的基于多视角的双极性相似融合网络的多模态情感分析方法,视觉相关的文本表示模块得到文本特征Htext,步骤如下:
7.根据权利要求1所述的基于多视角的双极性相似融合网络的多模态情感分析方法,其特征在于,多模态表示模块得到多模态特征Hfinal,步骤如下:
8.根据权利要求1-7中任意一项
...【技术特征摘要】
1.基于多视角的双极性相似融合网络的多模态情感分析方法,其特征在于,包括如下步骤:
2.根据权利要求1所述的基于多视角的双极性相似融合网络的多模态情感分析方法,其特征在于,提取面向对象的图像特征ho,步骤如下:
3.根据权利要求1所述的基于多视角的双极性相似融合网络的多模态情感分析方法,其特征在于,提取面向场景的图像特征hs,步骤如下:
4.根据权利要求1所述的基于多视角的双极性相似融合网络的多模态情感分析方法,其特征在于,跨模态双极相似性计算模块得到视觉特征hvisual,步骤如下:
5.根据权利要求4所述的基于多视角的双极性相似融合网络的多...
【专利技术属性】
技术研发人员:唐明伟,陈昱均,宗莲松,郑妍茜,李林熹,卿世麒,杨锟,徐文哲,杨震东,桂清池,王淳豪,陈晓亮,陈红红,
申请(专利权)人:西华大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。