This application relates to the field of artificial intelligence. The application discloses a neural network compression method and related equipment based on channel attention mechanism. The method includes: constructing a neural network model and establishing a channel attention mechanism in the neural network model, which includes multiple channels; training the neural network model; and training the neural network model. In the training process of the network model, the channels in the neural network model are deleted according to the channel attention mechanism. In this application, the channel attention layer is added before the full connection layer of the neural network model, and the channel weight is calculated. The channel with low weight is deleted to realize the compression of the neural network.
【技术实现步骤摘要】
基于通道注意力机制的神经网络压缩方法及相关设备
本申请涉及人工智能领域,特别涉及一种基于通道注意力机制的神经网络压缩方法及相关设备。
技术介绍
卷积神经网络(CNN)由输入层、卷积层、激活函数、池化层、全连接层组成,即INPUT(输入层)-CONV(卷积层)-RELU(激活函数)-POOL(池化层)-FC(全连接层),全连接层的每一个结点都与上一层的所有结点相连,用来把前边提取到的特征综合起来。由于其全相连的特性,一般全连接层的参数也是最多的。全连接层(fullyconnectedlayers,FC)在整个卷积神经网络中起到“分类器”的作用,目前由于全连接层参数冗余(仅全连接层参数就可占整个网络参数80%左右),运算时间耗时很久,且大量占用资源,效率低下。因此有必要对卷积神经网络进行压缩。
技术实现思路
本申请的目的在于针对现有技术的不足,提供一种基于通道注意力机制的神经网络压缩方法及相关设备,通过在神经网络模型的全连接层前加入通道注意力层,并计算通道权重,将权重低的通道进行删减,实现对神经网络的压缩。为达到上述目的,本申请的技术方案提供一种基于通道注意力机制的神经网络压缩方法及相关设备。本申请公开了一种基于通道注意力机制的神经网络压缩方法,包括以下步骤:构建神经网络模型,并在所述神经网络模型中建立通道注意力机制,所述神经网络模型包含多个通道;对所述神经网络模型进行训练;在对所述神经网络模型的训练过程中根据所述通道注意力机制对所述神经网络模型中的通道进行删减。较佳地,所述构建神经网络模型,并在所述神经网络模型中建立通道注意力机制,所述神经网络模型包含多个通道, ...
【技术保护点】
1.一种基于通道注意力机制的神经网络压缩方法,其特征在于,包括以下步骤:构建神经网络模型,并在所述神经网络模型中建立通道注意力机制,所述神经网络模型包含多个通道;对所述神经网络模型进行训练;在对所述神经网络模型的训练过程中根据所述通道注意力机制对所述神经网络模型中的通道进行删减。
【技术特征摘要】
1.一种基于通道注意力机制的神经网络压缩方法,其特征在于,包括以下步骤:构建神经网络模型,并在所述神经网络模型中建立通道注意力机制,所述神经网络模型包含多个通道;对所述神经网络模型进行训练;在对所述神经网络模型的训练过程中根据所述通道注意力机制对所述神经网络模型中的通道进行删减。2.如权利要求1所述的基于通道注意力机制的神经网络压缩方法,其特征在于,所述构建神经网络模型,并在所述神经网络模型中建立通道注意力机制,所述神经网络模型包含多个通道,包括:构建神经网络模型,在所述神经网络模型中的全连接层与卷积层之间构建通道注意力层,并在所述通道注意力层中设置softmax函数,所述通道注意力层中的每个通道与所述神经网络模型中的每个通道一一对应;根据所述softmax函数为所述通道注意力层中的每个通道分配通道权重。3.如权利要求2所述的基于通道注意力机制的神经网络压缩方法,其特征在于,所述根据所述softmax函数为所述通道注意力层中的每个通道分配通道权重,包括:获取输入信息并将所述输入信息通过所述神经网络模型中的卷积层的卷积运算以及所述通道注意力层的通道权重运算后获得当前时刻的隐层输出向量;计算上一时刻的隐层输出向量与所述输入信息之间的相似度,将所述相似度输入所述softmax函数并进行归一化处理,获得所述通道注意力层中的每个通道的通道权重。4.如权利要求1所述的基于通道注意力机制的神经网络压缩方法,其特征在于,所述对所述神经网络模型进行训练,包括:对所述神经网络模型根据公式:进行训练,获得所述神经网络模型的参数Wij和θ,其中,Yi表示神经元i的输出,函数f表示激活函数,Wij表示神经元j到神经元i的连接权值,θ表示偏置,Xj表示神经元j的输入。5.如权利要求1所述的基于通道注意力机制的神经网络压缩方法,其特征在于,所述对所述神经网络模型进行训练,包括:当在对所述神经网络模型进行训练时,检测所述...
【专利技术属性】
技术研发人员:金戈,徐亮,
申请(专利权)人:平安科技深圳有限公司,
类型:发明
国别省市:广东,44
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。