【技术实现步骤摘要】
解压缩设备及其控制方法相关申请的交叉引用本申请要求并基于2019年5月24日在韩国知识产权局提交的第10-2019-0060991号韩国专利申请、2019年9月23日在韩国知识产权局提交的第10-2019-0117081号韩国专利申请以及2019年11月6日在韩国知识产权局提交的第10-2019-0140720号韩国专利申请的优先权,这些韩国专利申请的每一者的全部公开内容以引用的方式并入本文中。
本公开涉及用于对人工智能(AI)系统中的压缩人工智能模型进行解压缩的解压缩设备及其控制方法,该AI系统使用诸如深度学习的机器学习算法及其应用程序来模拟人脑的认知和判断功能。
技术介绍
近年来,在使深度学习模型的性能退化最小化的同时,已使用修剪和量化来增加压缩率。例如,等于某个值或更小的权重被修剪为零的权重矩阵可以划分成表示非零值的第一数据集、累积每行非零权重数目的第二数据以及存储与每个非零值对应的列索引的第三数据。此后,可以对第一至第三数据进行量化。另一方面,权重矩阵可以以矩阵形式表示深度学习模型的权重参数。 ...
【技术保护点】
1.一种解压缩设备,包括:/n存储器,配置为存储待被解压缩并在人工智能模型的神经网络处理中使用的压缩数据;/n解码器,包括与所述压缩数据的压缩方法相关的多个逻辑电路,其中所述解码器配置为:/n基于所述压缩数据的输入通过所述多个逻辑电路对所述压缩数据进行解压缩,以及/n输出解压缩数据;以及/n处理器,配置为从所述解码器输出的所述解压缩数据中获得神经网络可处理形式的数据。/n
【技术特征摘要】
20190524 KR 10-2019-0060991;20190923 KR 10-2019-011.一种解压缩设备,包括:
存储器,配置为存储待被解压缩并在人工智能模型的神经网络处理中使用的压缩数据;
解码器,包括与所述压缩数据的压缩方法相关的多个逻辑电路,其中所述解码器配置为:
基于所述压缩数据的输入通过所述多个逻辑电路对所述压缩数据进行解压缩,以及
输出解压缩数据;以及
处理器,配置为从所述解码器输出的所述解压缩数据中获得神经网络可处理形式的数据。
2.根据权利要求1所述的解压缩设备,其中,所述存储器进一步配置为存储与所述压缩数据对应的代表值矩阵,
其中,所述处理器进一步配置为:
基于所述解压缩数据和所述代表值矩阵获得所述神经网络可处理形式的数据,以及
使用所述神经网络可处理形式的数据执行所述神经网络处理,以及
其中,所述解压缩数据和所述代表值矩阵包括通过对所述人工智能模型中所包括的原始矩阵进行量化而获得的矩阵。
3.根据权利要求2所述的解压缩设备,
其中,所述存储器进一步配置为存储与所述压缩数据对应的修剪索引矩阵,
其中,所述处理器进一步配置为基于所述修剪索引矩阵更新所述解压缩数据,
其中,所述修剪索引矩阵包括在所述原始矩阵的修剪过程中获得的矩阵,以及
其中,所述修剪索引矩阵在获得所述压缩数据的过程中使用。
4.根据权利要求3所述的解压缩设备,
其中,所述存储器进一步配置为存储与所述压缩数据对应的补丁信息,
其中,所述处理器进一步配置为:基于所述补丁信息改变所述解压缩数据中所包括的多个元素的至少一个元素的二进制数据值,以及
其中,所述补丁信息包括在获得所述压缩数据的过程中生成的误差信息。
5.根据权利要求2所述的解压缩设备,其中,
所述存储器进一步配置为:
存储与所述压缩数据对应的第一修剪索引矩阵,以及
存储与所述压缩数据对应的第二修剪索引矩阵,
其中,所述处理器进一步配置为:
基于所述第一修剪索引矩阵和所述第二修剪索引矩阵获得修剪索引矩阵,以及
基于所述修剪索引矩阵更新所述解压缩数据,
其中,所述修剪索引矩阵包括在所述原始矩阵的修剪过程中获得的矩阵,
其中,所述修剪索引矩阵在获得所述压缩数据的过程中使用,以及
其中,所述第一修剪索引矩阵和所述第二修剪索引矩阵分别是基于通过因式分解所述原始矩阵所获得的第一子矩阵和第二子矩阵中的每一者而获得的。
6.根据权利要求2所述的解压缩设备,其中,所述解压缩数据包括通过对所述原始矩阵进行交错并且接着对交错后的矩阵进行量化来获得的矩阵,以及
其中,所述处理器进一步配置为:
根据与所述交错对应的方式对所述神经网络可处理形式的数据进行去交错,以及
使用去交错后的数据来执行所述神经网络处理。
7.根据权利要求2所述的解压缩设备,
其中,所述处理器包括以矩阵形式排列的多个处理元件,以...
【专利技术属性】
技术研发人员:李桐洙,权世重,金炳旭,帕里查·卡普尔,朴培盛,
申请(专利权)人:三星电子株式会社,
类型:发明
国别省市:韩国;KR
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。