一种基于交叉环境注意力的指代图像分割方法技术

技术编号:38746716 阅读:9 留言:0更新日期:2023-09-08 23:28
本发明专利技术属于指代图像分割领域,具体涉及一种基于交叉环境注意力的指代图像分割方法。首先用语言编码器和视觉编码器提取文本和图像的原始特征,并分别构建语义图和视觉图结构;其次利用交叉注意力机制将文本和图像节点特征映射到多模态特征空间中,通过学习交叉环境信息对边特征进行嵌入,进而计算跨模态关系矩阵,得到文本和图像的跨模态特征表示;最后利用在多个尺度上整合多模态特征得到最终的分割掩膜。本发明专利技术根据不同的全局语义特征,自适应地调整多模态对应关系,增强了模型对跨模态信息的理解能力。通过利用真实的多模态数据集评估本发明专利技术,验证了本发明专利技术的性能达到了国际先进水平。进水平。进水平。

【技术实现步骤摘要】
一种基于交叉环境注意力的指代图像分割方法


[0001]本专利技术属于指代图像分割领域,具体涉及一种基于交叉环境注意力的指代图像分割方法。

技术介绍

[0002]随着人工智能时代的到来,人们对基于语言的人机交互和智能化图像编辑的需求越来越高。尽管传统的语义分割任务能够提供丰富的图像语义信息,但是它对图像中目标的识别能力和关联关系的理解仍非常有限。因此,指称图像分割任务的相关研究应运而生。该任务旨在根据文本描述分割图像中相匹配的区域,是实现人机交互和图像智能编辑等任务的关键技术。与语义分割任务相比,指称图像分割通常面对更复杂的场景,同时要求对复杂多变的语言描述进行深入解析,实现语义和视觉特征的系统分析,因而更具挑战性。
[0003]该任务主要关注两个问题:(1)图像和文本特征的提取;(2)图像和文本特征融合。特征提取方向上,现有的工作主要使用卷积神经网络、循环神经网络或Transformer模型进行特征提取。特征融合上,现有的工作主要利用连接、注意力机制或多模态Transformer模型融合图像和文本两个模态的特征,最终输出目标区域掩码。
[0004]目前针对指称图像分割问题的方法大多存在着以下几个问题:(1)在利用注意力机制在计算多模态特征间的相似度时候,只考虑了本模态特征和另一个模态所有特征之间的相似度,忽略了本模态其他特征的作用;(2)在不同文本和视觉特征组合下,文本和图像中的同一对特征可能有着不同的连接关系,如果只学习文本和图像特征之间的相似性,而不考虑二者组合构成的环境背景,会降低模型预测的效果

技术实现思路

[0005]专利技术目的:本专利技术主要针对上述指代图像分割方法的不足之处进行改善,提出了一种基于交叉环境注意力的指代图像分割方法。首先,挖掘图像和文本的全局语义特征;其次,构建图文多模态图结构,利用利用图注意力机制计算多模态特征相似性,进而得到图文注意力矩阵,实现更高质量的图文特征融合,最终输出目标区域掩膜。
[0006]为了实现上述目的,本专利技术采用如下技术方案:
[0007]一种基于交叉环境注意力的指代图像分割方法,其步骤包括:
[0008]步骤S1:提取图文特征,利用预训练模型SWIN Transformer提取四个不同尺寸的图像特征,四个特征按照其输出顺序依次编号为一、二、三、四。利用预训练模型BERT提取文本特征;
[0009]步骤S2:将得到的四个不同尺度的图像特征分别和文本特征作为原始特征输入环境注意力模块,获得四层图文特征关系矩阵;
[0010]进一步,所述步骤S2具体为:
[0011]步骤S21:对原始文本特征和原始图像特征分别通过不同的线性层和GELU激活函数,变换成相同的尺寸后将二者连接起来,再通过一层线性层获得边特征嵌入,在通道维度
上进行切分,将特征分成h个头;
[0012]步骤S22:对第四层的原始图像特X4征进行恒等映射,三、二、一层的原始图像特征X3,X2,X1分别乘上上层掩码S4,S3,S2。记作处理后的图像特征;
[0013]步骤S23:对原始文本特征和处理后图像特征分别通过全局平均池化层、线性层和激活函数,将二者连接后通过一层线形层获得环境语义信息,在通道维度上进行切分,将特征分成h个头;
[0014]步骤S24:将边嵌入和环境语义信息每个头两两一组,分别正则化后相乘,再通过激活函数,得到每对头中每条边的存在概率矩阵,即为h组原始图像和原始文本特征关系矩阵;
[0015]步骤S3:利用得到的四个不同尺寸的原始图像特征和原始文本特征以及四层图文关系矩阵,将文本特征转化为多模态特征,和对应层的原始图像特征进行融合;
[0016]进一步,所述步骤S3具体为:
[0017]步骤S31:将原始文本特征通过一层线形层,在通道维度上进行切分,将特征分成h个头,得到用于查询的文本特征;
[0018]步骤S32:将用于查询的文本特征每个头和对应一组关系矩阵相乘,获得了转移到视觉模态下的文本特征,将所有头连接起来,通过一组线性层和正则化层融合,得到了初步的多模态特征;
[0019]步骤S33:将初步的多模态特征矩阵和通过一组线形层、正则化、激活函数的原始图像特征矩阵连接,所得矩阵再通过一个多层感知机和一层正则化层,就得到了最终融合的多模态特征;
[0020]步骤S34:对于第四、三、二层的多模态特征,分别利用双线性插值上采样到与三、二、一层图像特征大小相同的尺寸,再通过一层线性层和激活函数,作为步骤S22中的掩码S4,S3,S2。
[0021]步骤S4:将四层多模态特征传入多层卷积神经网络,获得最终目标区域掩码;
[0022]进一步,所述步骤S4具体为:
[0023]步骤S41:将第四层多模态特征通过双线性插值上采样到与第三层多模态特征相同尺寸,连接二者,通过多层卷积模块融合,得到融合后的第三层多模态特征;
[0024]步骤S42:将融合后的第三层多模态特征通过双线性插值上采样到与第二层多模态特征相同尺寸,连接二者,通过多层卷积模块融合,得到融合后的第二层多模态特征;
[0025]步骤S43:将融合后的第二层多模态特征通过双线性插值上采样到与第一层多模态特征相同尺寸,连接二者,通过多层卷积模块融合,得到融合后的第一层多模态特征;
[0026]步骤S44:对融合后的第一层多模态特征用一层线性层降维,得到最终目标区域掩码,将掩码用双线性插值上采样,得到与输入图片相同尺寸的掩码,完成基于文本的实例分割任务。
[0027]步骤S5:利用交叉熵损失函数训练模型,所得模型即为实现基于文本的实例分割功能模型;
[0028]本专利技术与现有技术相比具有以下有益效果:
[0029](1)与大多数方法中跨模态注意力机制不同,本专利技术利用图文全局语义信息引导生成图文关系矩阵,这使得模型可以更高效地利用两个模态的信息。该专利技术根据不同的全
局语义特征,自适应地调整多模态对应关系,增强了模型对跨模态信息的理解能力。(2)大多数方法的跨模态注意力机制只考虑了本层图像信息和文本信息之间的关系,本专利技术用深层输出的多模态信息作为信号自适应地调整浅层的图像全局语义信息间的关联性,实现了多尺度多模态融合特征间的信息交流,增强了模型对环境语义信息的理解能力。
附图说明
[0030]图1是本专利技术设计的整体结构。
[0031]图2是本专利技术设计的关系图生成模块。
[0032]图3是本专利技术设计的多模态融合模块。
[0033]图4是本专利技术设计的多层多模态信息融合结构。
[0034]具体实施方法
[0035]下面将结合具体实施例和附图对本专利技术的技术方案进行进一步的说明。
[0036]一种基于交叉环境注意力的指代图像分割方法,步骤如下:
[0037]步骤S1:如图1所示提取图文特征,利用预训练模型Swin提取四个不同尺寸的图像特征,四个特征按照其输出顺序依次记作X1,X2,X3,X4本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于交叉环境注意力的指代图像分割方法,其特征在于,步骤包括:步骤S1:提取图文特征,利用预训练模型SWIN Transformer提取四个不同尺寸的图像特征,四个特征按照其输出顺序依次编号为一、二、三、四;利用预训练模型BERT提取文本特征;步骤S2:将得到的四个不同尺度的图像特征分别和文本特征作为原始特征输入环境注意力模块,获得四层图文特征关系矩阵;具体操作如下:步骤S21:对原始文本特征和原始图像特征分别通过不同的线性层和GELU激活函数,变换成相同的尺寸后将二者连接起来,再通过一层线性层获得边特征嵌入,在通道维度上进行切分,将特征分成h个头;步骤S22:对第四层的原始图像特X4征进行恒等映射,三、二、一层的原始图像特征X3,X2,X1分别乘上上层掩码S4,S3,S2;记作处理后的图像特征步骤S23:对原始文本特征和处理后图像特征分别通过全局平均池化层、线性层和激活函数,将二者连接后通过一层线形层获得环境语义信息,在通道维度上进行切分,将特征分成h个头;步骤S24:将边嵌入和环境语义信息每个头两两一组,分别正则化后相乘,再通过激活函数,得到每对头中每条边的存在概率矩阵,即为h组原始图像和原始文本特征关系矩阵;步骤S3:利用得到的四个不同尺寸的原始图像特征和原始文本特征以及四层图文关系矩阵,将文本特征转化为多模态特征,和对应层的原始图像特征进行融合;步骤S4:将四层多模态特征传入多层卷积神经网络,获得最终目标区域掩码;步骤S5:利用交叉熵损失函数训练模型,所得模型即为实现基于文本的实例分割功能模型。2.根据权利要求1所述的一种基于交叉环境注意力的指代图像分割方法,其特征在于,所述步骤S3具体为:步骤S31:将原始文本特征通过一层线性层,在通道维度上进行切分,将特征分成h个头,得到用于查询的文本特征;步骤S32:...

【专利技术属性】
技术研发人员:刘骏华孔雨秋
申请(专利权)人:大连理工大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1