卷积神经网络压缩方法、系统、设备及介质技术方案

技术编号:27657711 阅读:25 留言:0更新日期:2021-03-12 14:21
本发明专利技术提供了一种卷积神经网络模型压缩方法、系统、电子设备及存储介质,用于对待压缩卷积神经网络模型进行压缩处理。其中,所述卷积神经网络模型压缩方法为通过将待压缩的深度卷积神经网络分解为输入分区、第一分区、第二分区和输出分区;再通过不同的压缩方法分别压缩各模型分区,获得压缩后的轻量化模型。本发明专利技术可以解决现有的压缩模型在应用于移动终端时,存在的剪枝后的参数无法并行存储,参数量化不彻底,内存占用较高,以及模型压缩效果确定等问题,具有可靠性高、成本低、易于实现等优点。

【技术实现步骤摘要】
卷积神经网络压缩方法、系统、设备及介质
本专利技术涉及计算机视觉领域,尤其涉及一种深度卷积神经网络的压缩方法、系统、设备及介质。
技术介绍
随着计算机视觉技术的发展和智能设备的普及,卷积神经网络的应用领域正在变得越来越广泛。这种广泛不仅体现在运用卷积神经网络解决问题领域的广泛,更体现在运用卷积神经网络的设备种类的广泛。当前卷积神经网络不止需要运行在计算资源充足的超级计算机/服务器上,更需要在更多的手机/手表等计算资源,能耗有限的智能移动终端中运行。此时,除了对卷积神经网络的精确度有要求外,人们对卷积神经网络的轻量化的要求日益提高,即设计出更加轻便的卷积神经网络模型,使其能够满足智能移动终端中的部署要求。目前,通常采用网络压缩技术设计轻量化的卷积神经网络架构,主要是基于剪枝与量化的手段,例如DeepCompression方法通过综合参数剪枝与量化两种降低参数内存的方法,具有较好的压缩效果。压缩后的轻量化卷积神经网络能有效地降低其运行的时间与硬件成本,大大地提高卷积神经网络的速度和效能;然而,网络压缩需要建立在已经训练好的复杂神经网络的基础上,且需要反复剪枝并重新训练,导致压缩神经网络十分费时费力,且最终压缩过后的网络结构不能确定。除此之外,网络压缩算法的参数量化实际是将参数进行聚类并存储聚类索引与聚类中心,因此运行时的参数依然需要压缩前的内存数量,量化的压缩只起到了存储容量压缩而不是运行内/显存压缩。因此,现有的压缩模型在应用于移动终端时,通常会遇到剪枝后的参数作为稀疏矩阵存储无法并行,存储稀疏矩阵索引需要额外空间;参数量化不彻底导致高内存占用;模型压缩过程中需要进行大量重复且费时费力的预训练;压缩效果不是训练时可知的,即压缩模型的最终的资源占用很难精确估计,这对需要严密控制内存占用与功耗的边缘计算设备是不可接受的等问题。
技术实现思路
鉴于以上所述现有技术的缺点,本专利技术的目的在于提供一种卷积神经网络压缩方法、系统、电子设备和计算机存储介质,可以解决现有的压缩模型在应用于移动终端时,存在的剪枝后的参数无法并行存储,参数量化不彻底,内存占用较高,以及模型压缩效果确定等问题。为实现上述目的及其他相关目的,本专利技术提供一种卷积神经网络压缩方法,适用于对训练后的待压缩卷积神经网络模型进行压缩,所述方法包括:对所述待压缩卷积神经网络模型根据各卷积层在模型中的相对位置进行区块划分,获得各模型分区;对所述待压缩卷积神经网络模型根据所述模型分区进行分区压缩,获得轻量化模型。于本专利技术一实施例中,所述对所述待压缩卷积神经网络模型根据各卷积层在模型中的相对位置进行区块划分包括:将所述待压缩卷积神经网络模型中的输入层划分为输入分区;将所述待压缩卷积神经网络模型中位于所述输入分区至第i卷积层之间的隐藏层划分为第一分区;将所述待压缩卷积神经网络模型中所述第i卷积层及所述第i卷积层与输出层之间的隐藏层划分为第二分区;将所述待压缩卷积神经网络模型中的所述输出层划分为输出分区。于本专利技术一实施例中,所述分区压缩包括:对所述输入分区和所述输出分区均不做压缩处理;对所述第一分区内的各卷积层分别替换为深度可分离卷积层;对所述第二分区内的各卷积层分别替换为二值化深度可分离卷积层。于本专利技术一实施例中,所述第i卷积层的确定方法为任意的模型选择方法。于本专利技术一实施例中,所述模型选择方法包括k折交叉验证方法。于本专利技术一实施例中,所述对所述第二分区内的各卷积层分别替换为二值化深度可分离卷积层的实现方式包括采用二值化神经网络模型将已替换为深度可分离卷积的各卷积层中的参数量化为﹢1或﹣1。于本专利技术一实施例中,所述卷积神经网络压缩方法还包括对压缩后的所述轻量化模型采用任意优化器进行训练,获得训练后的轻量化模型。于本专利技术一实施例中,所述卷积神经网络模型压缩方法还包括在对所述第二分区进行压缩时采用优化策略对压缩方法进行优化。于本专利技术一实施例中,所述优化策略包括将所述第二分区中除第二分区输入层和第二分区输出层外其他的卷积层数按照第一比例缩减,同时将各卷积层中用于量化的卷积核的通道数按照所述第一比例进行扩展。于本专利技术一实施例中,所述第一比例优选为40%至60%之间的比例。本专利技术还提供一种卷积神经网络压缩系统,适用于对训练后的待压缩卷积神经网络模型进行压缩,所述系统包括:模型输入模块,用于输入及获取所述待压缩卷积神经网络模型的结构和参数信息;分区模型,用于对所述待压缩卷积神经网络模型根据各卷积层在模型中的相对位置进行区块划分,获得各模型分区;分区压缩模块,用于对所述待压缩卷积神经网络模型根据所述模型分区进行分区压缩,获得轻量化模型。于本专利技术一实施例中,所述对所述待压缩卷积神经网络模型根据各卷积层在模型中的相对位置进行区块划分包括:将所述待压缩卷积神经网络模型中的输入层划分为输入分区;将所述待压缩卷积神经网络模型中位于所述输入分区至所述第i卷积层之间(不包含所述第i卷积层)的隐藏层划分为第一分区;将所述待压缩卷积神经网络模型中所述第i卷积层及所述第i卷积层与输出层之间的隐藏层划分为第二分区;将所述待压缩卷积神经网络模型中的所述输出层划分为输出分区。于本专利技术一实施例中,分区压缩包括:对所述输入分区和所述输出分区均不做压缩处理;对所述第一分区内的各卷积层分别替换为深度可分离卷积层;对所述第二分区内的各卷积层分别替换为二值化深度可分离卷积层。于本专利技术一实施例中,所述第i卷积层的确定方法为任意模型选择法。于本专利技术一实施例中,所述对所述第二分区内的各卷积层分别替换为二值化深度可分离卷积层的实现方式包括采用二值化神经网络模型将已替换为深度可分离卷积的各卷积层进行参数二值量化。于本专利技术一实施例中,所述卷积神经网络模型压缩系统还包括训练模块,用于对压缩后的所述轻量化模型采用任意优化器进行训练,获得训练后的轻量化模型。于本专利技术一实施例中,所述卷积神经网络模型压缩系统还包括优化模块,用于在对所述第二分区进行压缩时采用优化策略对压缩方法进行优化。于本专利技术一实施例中,所述优化策略包括将所述第二分区中除第二分区输入层和第二分区输出层外其他的卷积层数按照第一比例缩减,同时将各卷积层中用于量化的卷积核的通道数按照所述第一比例进行扩展。此外,本专利技术还提供一种电子设备和一种计算机存储介质,所述电子设备包括:处理器、通信接口、存储器以及通信总线;所述处理器、所述通信接口和所述存储器通过所述通信总线完成相互间的通信;所述存储器用于存放至少一指令;所述指令使所述处理器执行如上所述卷积神经网络模型压缩方法的各个步骤。所述计算机存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如上所述指令使所述处理器执行如上所述卷积神经网络模型压缩方法的各个步骤。如上所述,本专利技术提供了一种卷积神经网络模型压缩方法,以及利用上述方法设计的所述卷积神经网络模型压缩系统、电子设备及存储介质。其中,所述卷积神经网络模型压缩方法为一种结合度可分离卷积以及二值化神经网络的深度网络压缩方本文档来自技高网
...

【技术保护点】
1.一种卷积神经网络压缩方法,其特征在于,适用于对训练后的待压缩卷积神经网络模型进行压缩,所述方法包括:/n对所述待压缩卷积神经网络模型根据各卷积层在模型中的相对位置进行区块划分,获得各模型分区;/n对所述待压缩卷积神经网络模型根据所述模型分区进行分区压缩,获得轻量化模型。/n

【技术特征摘要】
1.一种卷积神经网络压缩方法,其特征在于,适用于对训练后的待压缩卷积神经网络模型进行压缩,所述方法包括:
对所述待压缩卷积神经网络模型根据各卷积层在模型中的相对位置进行区块划分,获得各模型分区;
对所述待压缩卷积神经网络模型根据所述模型分区进行分区压缩,获得轻量化模型。


2.根据权利要求1所述的一种卷积神经网络压缩方法,其特征在于,所述对所述待压缩卷积神经网络模型根据各卷积层在模型中的相对位置进行区块划分包括:
将所述待压缩卷积神经网络模型中的输入层划分为输入分区;
将所述待压缩卷积神经网络模型中位于所述输入分区至第i卷积层之间的隐藏层划分为第一分区;
将所述待压缩卷积神经网络模型中所述第i卷积层及所述第i卷积层与输出层之间的隐藏层划分为第二分区;
将所述待压缩卷积神经网络模型中的所述输出层划分为输出分区。


3.根据权利要求2所述的一种卷积神经网络压缩方法,其特征在于,所述分区压缩包括:
对所述输入分区和所述输出分区均不做压缩处理;
对所述第一分区内的各卷积层分别替换为深度可分离卷积层;
对所述第二分区内的各卷积层分别替换为二值化深度可分离卷积层。


4.根据权利要求3所述的一种卷积神经网络压缩方法,其特征在于:所述第i卷积层的确定方法为任意的模型选择方法。


5.根据权利要求4所述的一种卷积神经网络压缩方法,其特征在于:所述模型选择方法包括k折交叉验证方法。


6.根据权利要求3所述的一种卷积神经网络压缩方法,其特征在于:所述对所述第二分区内的各卷积层分别替换为二值化深度可分离卷积层的实现方式包括采用二值化神经网络模型将已替换为深度可分离卷积的各卷积层中的参数量化为﹢1或﹣1。


7.根据权利要求3所述的一种卷积神经网络压缩方法,其特征在于:所述卷积神经网络压缩方法还包括对压缩后的所述轻量化模型采用任意优化器进行训练,获得训练后的轻量化模型。


8.根据权利要求3所述的一种卷积神经网络压缩方法,其特征在于:所述卷积神经网络模型压缩方法还包括在对所述第二分区进行压缩时采用优化策略对压缩方法进行优化。


9.根据权利要求8所述的一种卷积神经网络压缩方法,其特征在于:所述优化策略包括将所述第二分区中除第二分区输入层和第二分区输出层外其他的卷积层数按照第一比例缩减,同时将各卷积层中用于量化的卷积核的通道数按照所述第一比例进行扩展。


10.根据权利要求9所述的一种卷积神经网络压缩方法,其特征在于:所述第一比例优选为40%至60%之间的比例。


11.一种卷积神经网络压缩系统,其特征在于,适用于对训练后的待压缩卷积神经网络模型进行压缩,所述系统包括:
模型输入模块,用于输入及获取所述待压缩卷积神经网络模型的结...

【专利技术属性】
技术研发人员:刘畅施晓华卢宏涛
申请(专利权)人:上海交通大学
类型:发明
国别省市:上海;31

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1