数据压缩方法、数据解压缩方法、装置及电子设备制造方法及图纸

技术编号:31492657 阅读:36 留言:0更新日期:2021-12-18 12:29
本申请实施例公开了一种数据压缩方法、数据解压缩方法、装置及电子设备。所述方法包括:获取待压缩数据;通过压缩网络模型得到所述待压缩数据的中间压缩结果、与所述中间压缩结果的概率分布对应的第一概率分布参数和与所述待压缩数据的概率分布对应的第二概率分布参数;基于算数编码器以及所述第一概率分布参数对所述中间压缩结果进行编码,得到第一编码,基于算数编码器以及所述第二概率分布参数对所述待压缩数据进行编码,得到第二编码,第二编码为待压缩数据的压缩结果。通过上述方式使得,可以基于待压缩数据的概率分布特性以及由压缩网络模型得到的与待压缩数据概率分布相对应的第二概率分布参数对待压缩数据进行压缩,提高了压缩效率。提高了压缩效率。提高了压缩效率。

【技术实现步骤摘要】
数据压缩方法、数据解压缩方法、装置及电子设备


[0001]本申请涉及数据压缩
,更具体地,涉及一种数据压缩方法、数据解压缩方法、装置及电子设备。

技术介绍

[0002]随着深度学习技术的进步,越来越多的深度学习算法开始部署在手机等电子设备上,为了能够在电子设备上运行神经网络算法,电子设备上会配置NPU(Neural Processing Unit,嵌入式神经网络处理器)。然而,神经网络的某些中间结果存储需求过大,使得无法完全暂存于NPU,需要先将该中间结果写入DDR(Double Data Rate,双倍速率同步动态随机存储器)中,当有需要时再将中间结果从DDR中读入NPU。但由于DDR的带宽有限,大数据量的读写会产生很大的延迟,极大地制约了对速度要求极高的神经网络算法在微型终端设备上的应用。在此背景下,对神经网络中间结果进行压缩成为研究热点。
[0003]但是,相关的压缩算法还存在压缩效率低下的问题。

技术实现思路

[0004]鉴于上述问题,本申请提出了一种数据压缩方法、数据解压缩方法、装置及电子设备,以实现改善本文档来自技高网...

【技术保护点】

【技术特征摘要】
1.一种数据压缩方法,其特征在于,应用于电子设备,所述方法包括:获取待压缩数据;通过压缩网络模型得到所述待压缩数据的中间压缩结果、与所述中间压缩结果的概率分布对应的第一概率分布参数和与所述待压缩数据的概率分布对应的第二概率分布参数;基于算数编码器以及所述第一概率分布参数对所述中间压缩结果进行编码,得到第一编码,基于算数编码器以及所述第二概率分布参数对所述待压缩数据进行编码,得到第二编码,所述第二编码为所述待压缩数据的压缩结果。2.根据权利要求1所述的方法,其特征在于,所述压缩网络模型包括下采样网络和上采样网络,通过压缩网络模型得到所述待压缩数据对应的中间压缩结果、与所述中间压缩结果的概率分布对应的第一概率分布参数和与所述待压缩数据的概率分布对应的第二概率分布参数,包括:将所述待压缩数据输入所述下采样网络,得到所述下采样网络输出的所述中间压缩结果与所述第一概率分布参数;将所述中间压缩结果输入到所述上采样网络,得到所述上采样网络输出的所述第二概率分布参数。3.根据权利要求2所述的方法,其特征在于,所述待压缩数据和所述中间压缩结果都包含多个子数据,所述获取待压缩数据之前,还包括:通过压缩损失函数对待训练的压缩网络模型进行训练,得到所述压缩网络模型,所述压缩损失函数包括第一损失函数和第二损失函数,所述第一损失函数用于使所述中间压缩结果的多个子数据所需存储空间的均值最小,所述第二损失函数用于使所述待压缩数据的多个子数据所需存储空间的均值最小。4.根据权利要求1所述的方法,其特征在于,所述基于算数编码器以及所述第一概率分布参数对所述中间压缩结果进行编码,得到第一编码,基于算数编码器以及所述第二概率分布参数对所述待压缩数据进行编码,得到第二编码,所述第二编码为所述目标压缩数据的压缩结果之后,还包括:将所述第一编码与所述第二编码进行拼接得到第三编码,存储所述第三编码。5.一种数据解压缩方法,其特征在于,应用于电子设备,所述方法包括:获取待解码信息,所述待解码信息包括第一概率分布参数、第一编码以及第二编码,所述第二编码为待解压缩数据;将所述第一概率分布参数与所述第一编码输入算数解码器,获取第一解码;将所述第一解码输入解压缩网络模型,获取第二概率分布参数,所述解压缩网络模型为上采样网络,所述上采样网络为与所述...

【专利技术属性】
技术研发人员:郭烈强
申请(专利权)人:哲库科技上海有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1