一种用于CNN的超低复杂度最大池化反向传播架构制造技术

技术编号:37781111 阅读:26 留言:0更新日期:2023-06-09 09:11
本发明专利技术公开了一种用于CNN的超低复杂度最大池化反向传播架构,本发明专利技术的主要目的是解决卷积神经网络最大池化反向传播采用传统恢复矩阵算法,恢复矩阵中大部分为零值,直接存储恢复矩阵C会造成大量的存储资源浪费的问题。本发明专利技术根据输入矩阵中稀疏性的数据特点,采用改进算法实现,设计了Matrix mapping逻辑运算,直接得到输入矩阵在卷积核窗口的映射地址,并判断其是否位于当前的窗口中,无需恢复成原始矩阵,优化数据存储方案,选择非零值做卷积硬件实现,从而提升了反向最大池化中的硬件实现频率,减少了存储资源消耗,降低了硬件实现复杂度,选择非零值完成卷积运算减小了计算资源的消耗。算资源的消耗。算资源的消耗。

【技术实现步骤摘要】
一种用于CNN的超低复杂度最大池化反向传播架构


[0001]本专利技术属于计算机
,涉及卷积神经网络中基于FPGA的反向最大池化超低复杂度实现方法。

技术介绍

[0002]近年来,CNN已成功应用于图像识别和自然语言处理等领域。CNN架构主要由卷积层、池化层以及全连接层构成,其中池化层可分为平均池化和最大池化,最大池化可以减少估计均值的偏移带来的误差,从而保留图片的纹理信息,其计算方式如下:
[0003][0004]其中data
i
表示池化层的输入矩阵元素N
pool
为池化层的窗口尺寸。因最大池化相较于平均池化计算量较少,已应用于AlexNet、VGG、GooglNet等网络。
[0005]在反向传播过程中,根据前向非零点位置上采样填充零值以及完成反向最大池化层计算。如表1所示,由于各网络内部上采样得到的恢复矩阵较大且通道个数较多,如VGG网络中恢复矩阵大小达到了112
×
112大小,通道个数为128个,若按照恢复矩阵的尺寸进行数据存储,将造成存储资源以及计算资源消耗过本文档来自技高网...

【技术保护点】

【技术特征摘要】
1.一种用于CNN的超低复杂度最大池化反向传播架构,其特征在于,架构具体如下:设输入矩阵E为R
×
R大小,卷积核大小为N
conv
×
N
conv
,恢复矩阵C的大小为F
×
F;1)直接从矩阵E'大小为R
×
R的RAM中同时读取一个卷积窗口内部Q=N
conv
×
N
conv
个最大非零数值量,即输入数据E(1)~E(Q),其中矩阵E'由输入矩阵E经过式(1)得到,其中m,n为矩阵E的行列坐标,i,j分别为矩阵E'的行列坐标,Z为矩阵E中行列坐标相同元素的个数;2)根据反卷积中的填充大小P由式(2)和式(3)改变原矩阵E'的地址行列坐标r和c得到填充后的行列坐标r

和c

,r

=r+P
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(2)c

=c+P
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(3)由矩阵A'的内部数据对应地址与行列偏移量c
row
和c
col
相减得到映射到对应卷积核的非零位置;行列偏移量c
row
和c
col
按照卷积步长设定,初始值为0;判断映射到对应卷积核的非零位置是否小于等于当前卷积核内部坐标,是则在对应卷积核范围内,以...

【专利技术属性】
技术研发人员:张小军朱琛石王晓静曾庆田陈达鲁法明宋戈韩钦郭华张德学
申请(专利权)人:山东科技大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1