The invention provides a model compression method based on pruning sequential active learning, and proposes an end-to-end pruning framework based on sequential active learning, which can actively learn the importance of network layers, generate pruning priority, make reasonable pruning decisions, solve the unreasonable problem of existing simple sequential pruning methods, and give priority to pruning at the network layer with the least influence. At the same time, based on the ultimate loss of model, the importance of convolution core can be evaluated from multiple angles, efficiently, flexibly and quickly to ensure the correctness and validity of the whole process model compression, and provide technical support for subsequent large model transplantation to portable devices. The experimental results show that the model compression method based on pruning sequential active learning provided by the invention is in the lead under multiple data sets and multi-model structures, can maximize the model volume under the condition of ensuring model accuracy, and has strong practical application prospects.
【技术实现步骤摘要】
一种基于剪枝顺序主动学习的模型压缩方法
本专利技术属于神经网络模型
,尤其涉及一种基于剪枝顺序主动学习的模型压缩方法。
技术介绍
近年来,随着深度神经网络的蓬勃发展,学术圈和工业界共同目睹了深度学习在计算机视觉、自然语言处理等众多领域的重大突破。卷积神经网络(CNN)在某些视觉领域的表现力,甚至超过了人类的视觉处理能力。尽管深度网络在视觉领域取得重大的突破,但模型的大小和计算量却成为其在实际应用中的瓶颈。深度网络应用在现实场景,需要依附硬件的快速计算能力、大量存储空间和电池容量。大规模神经网络可以高效地运行在机房的服务器中,由GPU快速计算,却难以应用在资源有限的移动设备和低频CPU,比如智能手机、可穿戴装备等。受此限制,深度学习的众多科研成果难以转化到实际可应用的场景。为了解决这个难题,近年来研究人员提出了很多模型压缩的方法,旨在压缩模型大小,提高模型运行速度,且尽量保持模型精度不变,从而实现将压缩后的模型移植到小型设备中使用。模型压缩的本质,是产生一个小型模型,使它和大规模网络有着同样的表现力。这对研究人员来说是一个极大的挑战,大规模网络是经过专家学者精心设计并验证有效的网络结构,学习到的每一个参数都对网络整体的表现做出贡献,不恰当的舍弃某些参数势必会损害模型效果。实际场景如果需要一个极其小的模型,则需要平衡模型复杂度和模型效果之间的关系,适当做出某方面舍弃主流的模型压缩方法分为几个分支,第一类是“神经网络修剪”,包括稀疏化剪枝和结构化剪枝两个方法。剪枝方法的重点在评估网络连接权重,剪掉对网络影响较小的权重,并且通过重训练来恢复模型的精度。稀疏化 ...
【技术保护点】
1.一种基于剪枝顺序主动学习的模型压缩方法,其特征在于,所述方法包括:S1.利用LSTM学习网络时序特征,做出每一网络层是否需要剪枝的决策;S2.在选定的网络层对该网络层的网络层参数进行评估和裁剪,并提出恢复机制对剪枝后模型精度进行即刻恢复;S3.对剪枝后的模型利用导师网络进行加速重训练;S4.根据剪枝后重训练的模型的表现力和复杂度,得到反馈激励R,用增强学习方法更新LSTM;S5.选取反馈激励最高的5个模型作为新一轮LSTM的输入,重复步骤1‑步骤4,直至LSTM不再产生更优的剪枝决策时终止训练过程,得到最优的剪枝后模型。
【技术特征摘要】
2018.06.15 CN 20181061639941.一种基于剪枝顺序主动学习的模型压缩方法,其特征在于,所述方法包括:S1.利用LSTM学习网络时序特征,做出每一网络层是否需要剪枝的决策;S2.在选定的网络层对该网络层的网络层参数进行评估和裁剪,并提出恢复机制对剪枝后模型精度进行即刻恢复;S3.对剪枝后的模型利用导师网络进行加速重训练;S4.根据剪枝后重训练的模型的表现力和复杂度,得到反馈激励R,用增强学习方法更新LSTM;S5.选取反馈激励最高的5个模型作为新一轮LSTM的输入,重复步骤1-步骤4,直至LSTM不再产生更优的剪枝决策时终止训练过程,得到最优的剪枝后模型。2.根据权利要求1所述的方法,其特征在于,所述步骤S1包括:(1)首先将神经网络模型用字符串表示出来,作为LSTM的输入,具体方式为:用(mi,ni)表示神经网络的第i个节点ξi,其中,m表示节点类型,取值于{0,1,2},分别代表卷积,池化和全连接操作;n表示节点属性值,当该节点为卷积时,n代表该层卷积核数量;当该节点为池化时,n代表池化步长;当该节点为全连接时,n代表该层神经元数量;(2)获取LSTM剪枝决策,具体包括:在每个时刻,一个主节点和它的下一个节点作为多层LSTM的输入,该输入可表示为[mi,ni,mi+1.ni+1];LSTM利用softmax函数对当前输入的主节点做出是否剪枝的决策,辅助节点只提供辅助信息,不对其进行剪枝预测。3.根据权利要求1或2所述的方法,其特征在于,所述网络层包括卷积层和/或全连接层;卷积层的网...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。