一种基于注意力机制的排序分组卷积方法技术

技术编号:30312828 阅读:16 留言:0更新日期:2021-10-09 22:55
一种基于注意力机制的排序分组卷积方法,首先,通过全局平均池化获取输入特征图feature maps的权重信息;然后,根据这些权重信息对特征图feature maps进行排序;其后,将排序后的特征图feature maps高信息量与低信息量组合进行分组卷积,并经1

【技术实现步骤摘要】
一种基于注意力机制的排序分组卷积方法


[0001]本专利技术属于计算机视觉计算机应用领域,具体而言涉及一种基于注意力机制的排序分组卷积方法。

技术介绍

[0002]深度的学习发展推动着计算机视觉发展,轻量型的深度神经网络研究也成为该领域的热点话题,例如图像分类、目标检测和语义分割等都出现大量的轻量型深度神经网络。通过不同的方法对深度神经网络在确保性能的前提下,进行缩减参数量获得轻量型的神经网络模型。因此,其对深度学习和计算机视觉领域的发展有着重要的意义。
[0003]调研文献发现,已有很多轻量型神经网络方法被提出,如:SqueezeNext(Amir Gholami,Kiseok Kwon,Bichen Wu,et.al.SqueezeNext:Hardware

Aware Neural Network Design[C].IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops(CVPRW),2018.即:Amir Gholami,Kiseok Kwon,Bichen Wu,et.al.硬件感知网络设计)、ShuffleNet(Xiangyu Zhang,Xinyu Zhou,Mengxiao Lin,Jian Sun.ShuffleNet:An Extremely Efficient Convolutional Neural Network for Mobile Devices[C].IEEE Conference on Computer Vision and Pattern Recognition(CVPR),2018,pp:6848

6856.即:Xiangyu Zhang,Xinyu Zhou,Mengxiao Lin,Jian Sun.一个可用于移动设备的高效卷积神经网络)、MobileNetV2(Mark Sandler,Andrew Howard,Meng

long Zhu,Andrey Zhmoginov,Liang

Chieh Chen.MobileNetV2:Inverted Residuals and Linear Bottlenecks[C].IEEE/CVF International Conference on Computer Vision Workshop(ICCVW).2018,pp:4510

4520.即:Mark Sandler,Andrew Howard,Meng

long Zhu,Andrey Zhmoginov,Liang

Chieh Chen.反向的线性瓶颈残差块)。虽然现有很多轻量型的卷积神经网络可以在保证模型性能的前提下,降低模型参数量。但是在提升模型的精度方面不足并且容易丢失神经网络训练过程中的特征信息。
[0004]综上所述,已有的深度神经网络中分组卷积方法在模型性能方面距离实际应用的要求还有较大差距,迫切地需要改进。

技术实现思路

[0005]为了克服已有的分组卷积方法在深度神经网络模型精度方面的不足,本专利技术提出一种计算代价小且性能高的基于注意力机制的排序分组卷积方法。
[0006]本专利技术解决其技术问题所采用的技术方案是:
[0007]一种基于注意力机制的排序分组卷积方法,所述方法包括以下步骤:
[0008]1)输入:前一层卷积神经网络的输出A∈R
H
×
W
×
C
,利用全局平均池化获得A∈R
H
×
W
×
C
每个通道的权重信息,即x∈R1×1×
C
,其中H和W分别为特征图feature maps的高和宽,C表示通道的数量;
[0009]2)利用排序算法对通道权重x∈R1×1×
C
按大小进行排序,得到x
i
∈R1×1×
C
,其中i=
1,2,3

C;
[0010]3)找到x
i
∈R1×1×
C
中每个值所对应的初始索引值x
j
,得到每个通道的索引与对应通道的权重信息进行匹配获得其中i,j=1,2,

,C;
[0011]4)按高信息量的通道与低信息量的通道进行成对分组,即4)按高信息量的通道与低信息量的通道进行成对分组,即对A∈R
H
×
W
×
C
进行分组卷积运算,输出
[0012]5)将输出的特征图feature maps信息通过1
×
1卷积层增加通道数,得到B∈R
H
×
W
×
C

[0013]6)将输出的B∈R
H
×
W
×
C
与输入的A∈R
H
×
W
×
C
进行特征融合,得到AB∈R
H
×
W
×
C
,并将AB∈R
H
×
W
×
C
经过通道注意力机制SENet加权输出。
[0014]本专利技术的技术构思为:首先,对输入的feature map获取权重信息;然后,根据这些权重信息对每一个feature map进行排序;其后,将排序后的feature map高信息量与低信息量组合进行分组卷积,并经1
×
1卷积将分组卷积后的输出与输入通道数匹配;最后,通过注意力机制对输出进行加权输出。本专利技术提出一种计算代价小、预测精度高的基于注意力机制的排序分组卷积方法。
[0015]本专利技术的有益效果表现在:一方面,用分组卷积的方式降低神经网络模型的参数量并且通过排序的方式让通道之间的信息融合进行卷积;另一方面,利用注意力机制,进一步的提取分组卷积后输出的特征信息,进而提高模型的性能。
附图说明
[0016]图1为排序分组卷积示意图。
[0017]图2为基于注意力机制的排序分组卷积模块示意图。
[0018]图3为基于注意力机制的排序分组卷积模块嵌入ResNet神经网络框架示意图。
具体实施方式
[0019]下面结合附图对本专利技术作进一步描述。
[0020]参照图1和图2,一种基于注意力机制的排序分组卷积方法,包括以下步骤:
[0021]1)输入:前一层卷积神经网络的输出A∈R
H
×
W
×
C
,利用全局平均池化获得A∈R
H
×
W
×
C
每个通道的权重信息,即x∈R1×1×
C
,其中H和本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于注意力机制的排序分组卷积方法,其特征在于,所述方法包括以下步骤:1)输入:前一层卷积神经网络的输出A∈R
H
×
W
×
C
,利用全局平均池化获得A∈R
H
×
W
×
C
每个通道的权重信息,即x∈R1×1×
C
,其中H和W分别为特征图feature maps的高和宽,C表示通道的数量;2)利用排序算法对通道权重x∈R1×1×
C
按大小进行排序,得到x
i
∈R1×1×
C
,其中i=1,2,3

C;3)找到x
i
∈R1×1×
C
中每个值所对应的初始索引值x
j
,得到每个通道的索引与对应通道的权重信息进行匹配获得其中i,j=1,2,

,C...

【专利技术属性】
技术研发人员:陈永刚张一峰李章维
申请(专利权)人:杭州中葳数字科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1