The invention provides a neural network model compression method and a device, wherein the method comprises: input training data into the neural network model to be compressed and the target neural network model; extract feature vectors and classification results from the training data based on the neural network model to be compressed, and model the target neural network. After training, the compressed neural network model is obtained, in which the number of parameters of the target neural network model is less than the number of parameters of the neural network model to be compressed. The embodiment of the invention guides the target neural network model to train based on the feature vectors and classification results extracted from the training data by the neural network model to be compressed, and the classification results of the compressed neural network model and the neural network model to be compressed are the same as those of the same training data, so the training data can not be compressed in the model. The loss of precision caused by the process, can ensure the accuracy of the premise, the size of the model compression, to meet the accuracy and model size of the dual requirements.
【技术实现步骤摘要】
一种神经网络模型压缩方法以及装置
本专利技术涉及机器学习
,具体而言,涉及一种神经网络模型压缩方法以及装置。
技术介绍
随着神经网络在图像、语音、文本等领域的迅猛发展,推动了一系列智能产品的落地。为了让神经网络更好学习训练数据的特征以提升模型效果,相应用于表示神经网络模型的参数迅速增长,神经网络的层数不断增加,导致深度神经网络模型存在着参数众多,模型训练和应用过程计算量大的不足;这导致基于神经网络的产品大多依靠服务器端运算能力的驱动,非常依赖良好的运行环境和网络环境,造成神经网络模型的应用范围受到限制,例如无法实现嵌入式应用。为了实现神经网络模型的嵌入式应用,需要将神经网络模型的体积压缩到一定范围以下。当前的模型压缩方法一般包括如下几种:其一,剪枝,也即在训练完大模型后,去掉网络模型中权重很小的参数,然后继续对模型进行训练;其二,通过权值共享达到缩减参数数量的目的;其三,量化,一般而言,神经网络模型的参数都是用的32bit长度的浮点型数表示,实际上不需要保留那么高的精度,可以通过量化,比如用0~255表示原来32个bit所表示的精度,通过牺牲精度来降低每一个权值所需要占用的空间。其四,神经网络二值化,也即将网络模型的参数均使用二进制数表示,以达到减小模型体尺寸的目的。但是上述几种方法都是直接在待压缩模型上直接进行模型压缩,且以牺牲模型的精度为前提进行模型压缩的,往往无法达到对精度的使用需求。
技术实现思路
有鉴于此,本专利技术实施例的目的在于提供一种神经网络模型压缩方法以及装置,能够在保证神经网络模型精度的情况下,对模型的尺寸进行压缩。第一方面,本专利技 ...
【技术保护点】
1.一种神经网络模型压缩方法,其特征在于,该方法包括:将训练数据输入待压缩神经网络模型以及目标神经网络模型;基于所述待压缩神经网络模型对所述训练数据提取的特征向量和分类结果,对目标神经网络模型进行训练,得到压缩神经网络模型;其中,所述目标神经网络模型参数的数量少于所述待压缩神经网络模型参数的数量。
【技术特征摘要】
1.一种神经网络模型压缩方法,其特征在于,该方法包括:将训练数据输入待压缩神经网络模型以及目标神经网络模型;基于所述待压缩神经网络模型对所述训练数据提取的特征向量和分类结果,对目标神经网络模型进行训练,得到压缩神经网络模型;其中,所述目标神经网络模型参数的数量少于所述待压缩神经网络模型参数的数量。2.根据权利要求1所述的方法,其特征在于,在将训练数据输入待压缩神经网络模型以及目标神经网络模型之前,还包括:将所述训练数据输入所述待压缩神经网络模型,对所述待压缩神经网络模型进行训练,得到完成训练的待压缩神经网络模型。3.根据权利要求1所述的方法,其特征在于,所述待压缩神经网络模型包括:待压缩神经网络和待压缩分类器;所述目标神经网络模型包括:目标神经网络和目标分类器;所述基于所述待压缩神经网络模型对所述训练数据提取的特征向量和分类结果,对目标神经网络模型进行训练,得到压缩神经网络模型,具体包括:使用所述待压缩神经网络为输入的训练数据提取第一特征向量,并使用所述目标神经网络为输入的训练数据提取第二特征向量;对所述第一特征向量以及第二特征向量进行相似度匹配,并根据相似度匹配的结果对所述目标神经网络进行本轮训练;以及将所述第一特征向量输入至所述待压缩分类器,得到第一分类结果;将所述第二特征向量输入至所述目标分类器,得到第二分类结果;根据所述第一分类结果和所述第二分类结果的比对结果,对所述目标神经网络以及所述目标分类器进行本轮训练;经过对所述目标神经网络以及所述目标分类器进行多轮训练,得到压缩神经网络模型。4.根据权利要求3所述的方法,其特征在于,执行如下第一比对操作,直至所述目标神经网络模型的分类损失符合预设损失范围,完成对所述目标神经网络以及所述目标分类器的本轮训练;所述第一比对操作包括:将所述第一分类结果和所述第二分类结果进行比对;针对比对结果不一致的情况,生成第一反馈信息,并基于所述第一反馈信息对所述目标神经网络和所述目标分类器进行参数调整;基于调整后的参数,使用目标神经网络以及目标分类器为所述训练数据确定新的第二分类结果,并再次执行所述第一比对操作。5.根据权利要求3所述的方法,其特征在于,所述对所述第一特征向量以及所述第二特征向量进行相似度匹配之前,还包括:对所述第一特征向量进行噪声添加操作;所述对所述第一特征向量以及所述第二特征向量进行相似度匹配,具体包括:将添加了噪声的所述第一特征向量和所述第二特征向量进行相似度匹配。6.根据权利要求3-5任意一项所述的方法,其特征在于,所述对所述第一特征向量以及第二特征向...
【专利技术属性】
技术研发人员:孙源良,王亚松,刘萌,樊雨茂,
申请(专利权)人:国信优易数据有限公司,
类型:发明
国别省市:北京,11
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。