【技术实现步骤摘要】
残差神经网络在线训练架构及存储压缩与计算加速方法
[0001]本专利技术属于计算机
,尤其涉及一种残差神经网络在线训练架构及存储压缩与计算加速方法。
技术介绍
[0002]现有的深度残差神经网络在计算资源充足时表现出了强大的性能,但在计算资源有限时则不能表现出理想的效果,甚至当下大多数个人电脑都已经无法实现深度神经网络的有效训练。
[0003]深度残差神经网络的训练往往需要大批量数据作为并行输入,同时要求高精度的浮点数以保证训练的性能和精度。针对深度残差神经网络的在线训练的计算加速和压缩存储方法主要围绕着数据量化的算法的优化。
[0004]而应用常见的量化方式往往需要付出很大的性能下降的代价,这是因为在数据分布不平均时常用的离散化方法不能较好的表达出原数据的分布,造成离散化过程中的大量信息缺失。因此现有的残差神经网络算法大多使用量化算法来优化前向传播时的模型的调用,而针对残差神经网络的在线训练方法依旧有很多探索的空间。
技术实现思路
[0005]本专利技术目的在于提供一种残差神经网络在线训练架构及存储压缩与计算加速方法,以解决上述的技术问题。
[0006]为解决上述技术问题,本专利技术的一种残差神经网络在线训练架构及存储压缩与计算加速方法的具体技术方案如下:
[0007]一种残差神经网络在线训练架构,移除了批归一化运算模块,包括前向传播模块和反向传播模块两个部分,所述前向传播模块和反向传播模块均包含两个加法偏置Bias,一个卷积层Conv,一个乘法算子Multip ...
【技术保护点】
【技术特征摘要】
1.一种残差神经网络在线训练架构,其特征在于,移除了批归一化运算模块,包括前向传播模块和反向传播模块两个部分,所述前向传播模块和反向传播模块均包含两个加法偏置Bias,一个卷积层Conv,一个乘法算子Multiplier,和一个激活层ReLu,所述前向传播模块用于进行一个加法偏置Bias、一个卷积层Conv、一个乘法算子Multiplier、一个加法偏置Bias和一个激活层ReL的运算,所述反向传播模块用于进行一个激活层ReL、一个加法偏置Bias、一个乘法算子Multiplier、一个卷积层Conv和一个加法偏置Bias的运算。2.一种如权利要求1所述的残差神经网络在线训练架构的存储压缩与计算加速方法,其特征在于,包括如下步骤:步骤1:前向传播,经过加法偏置运算、卷积运算、乘法运算、加法偏置运算和激活运算后完成前行传播过程;步骤2:反向传播,经过激活运算、加法偏置运算、乘法运算、一个卷积运算和加法偏置运算完成反向传播。3.根据权利要求2所述的残差神经网络在线训练架构的存储压缩与计算加速方法,其特征在于,所述步骤1包括如下具体步骤:在第l个基本结构块中,输入的x
l0
先经过了一个加法运算后输出被整形化到k
a
位x
l1
;x
l1
进一步与量化到k
w
位的w
l
进行卷积运算,输出被整形化到k
a
位x
l2
;x
l2
与权重为γ
l
相乘之后对位宽为k
a
+k
γ
‑
1的输出x
l3
在进行一次加法运算,得到位宽为k
a
+k
γ
‑
1的整形数x
l4
,最后x
l4
通过了激活函数RELU并且再次使用Q
a
量化到k
a
位。4.根据权利要求2所述的残差神经网络在线训练架构的存储压缩与计算加速方法,其特征在于,所述步骤2包括如下具体步骤:步骤2.1:参数的量化;步骤2.2:更新权重;步骤2.3:浮点数整形化;步骤2.4:根据不同参数的数据分布和作用制定离散化策略。5.根据权利要求4所述的残差神经网络在线训练架构的存储压缩与计算加速方法,其特征在于,所述步骤...
【专利技术属性】
技术研发人员:李国齐,杨玉宽,裴京,陈恒努,孟子阳,
申请(专利权)人:清华大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。