一种自适应的非对称量化的深度神经网络模型压缩方法技术

技术编号:23625234 阅读:60 留言:0更新日期:2020-03-31 22:53
本发明专利技术公开了一种自适应的非对称量化的深度神经网络模型压缩方法,该方法包括:在深度神经网络训练时,每一个批次的训练过程,在前向传播开始计算之前,将网络的每一层浮点权重自适应的量化为非对称的三元或四元值;并在反向传播更新参数阶段,使用原始的浮点型网络权重进行参数更新;最后对训练完成的量化深度神经网络进行压缩存储。本发明专利技术降低了深度神经网络的参数冗余程度,并对剩余参数实现自适应的量化,对网络模型进行极大限度的压缩,提升了量化方法在深度网络及大数据集上的识别准确率。

An adaptive deep neural network model compression method for asymmetric quantization

【技术实现步骤摘要】
一种自适应的非对称量化的深度神经网络模型压缩方法
本专利技术涉及深度神经网络模型压缩
,尤其涉及一种自适应的非对称量化的深度神经网络模型压缩方法。
技术介绍
近些年,深度学习逐渐替代了传统机器学习在日常生活中的应用,诸如语音识别、图像分类、机器翻译等一系列机器学习任务中,深度神经网络都取得了一定成果。但是,经典的深度神经网络模型,由于其厚重的层级结构带来数以百万计的浮点网络参数运算量,使得大多数网络难以部署到移动设备、嵌入式设备当中并保持良好的处理性能。而如何极大限度压缩神经网络参数并保证不低于原网络识别性能逐渐成为当前深度学习的重要研究方向。目前,针对模型参数冗余性的深度模型压缩方法分为两种,早在ICLR2016获得最佳论文奖的DeepCompression中便对这两种方法做了详尽的解释。其一是基于参数修剪的技术(也被称为网络剪枝),其通过分析网络结构的重要性,将不重要的网络结构剪掉,来削减模型参数的冗余性。其二是基于参数量化的技术,其将32bit浮点权重,量化到1-bit、2-bit的有限数值,以此降低模型参数占用的内存。较为本文档来自技高网...

【技术保护点】
1.一种自适应的非对称量化的深度神经网络模型压缩方法,其特征在于,所述自适应的非对称量化的深度神经网络模型压缩方法包括:/n在深度神经网络训练时,对于每一批次的训练过程,在前向传播开始计算之前,将网络的每一层浮点权重自适应的量化为非对称的三元值或四元值;/n在反向传播更新参数阶段,使用原始的浮点型网络权重进行参数更新;/n对训练完成的量化深度神经网络进行压缩存储。/n

【技术特征摘要】
1.一种自适应的非对称量化的深度神经网络模型压缩方法,其特征在于,所述自适应的非对称量化的深度神经网络模型压缩方法包括:
在深度神经网络训练时,对于每一批次的训练过程,在前向传播开始计算之前,将网络的每一层浮点权重自适应的量化为非对称的三元值或四元值;
在反向传播更新参数阶段,使用原始的浮点型网络权重进行参数更新;
对训练完成的量化深度神经网络进行压缩存储。


2.如权利要求1所述的自适应的非对称量化的深度神经网络模型压缩方法,其特征在于,在将网络的每一层浮点权重自适应的量化为非对称的三元值或四元值时,自适应量化的三元值的表达式如下:



其中,W1p,表示对应的缩放因子,W1表示当前待量化的浮点权重,表示量化过程中采用的阈值。


3.如权利要求2所述的自适应的非对称量化的深度神经网络模型压缩方法,其特征在于,在将网络的每一层浮点权重自适应的量化为非对称的三元值或四元值时,自适应量化的四元值的表达式如下:






其中,W1p,表示对应的缩放因子,W1表示当前待量化的浮点权重,表示量化过程中采用的阈值。


4.如权利要求3所述的自适应的非对称量化的深度神经网络模型压缩方法,其特征在于,在将网络的每一层浮点权重自适应的量化为非对称的三元值或四元值时,所述方案还包括:
采用L2范式最小来降低量化过程所带来的损失,公式如下:
...

【专利技术属性】
技术研发人员:张丽潘何益
申请(专利权)人:北京工业大学
类型:发明
国别省市:北京;11

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1