面向压缩卷积神经网络的并行卷积运算方法及装置制造方法及图纸

技术编号:15822609 阅读:79 留言:0更新日期:2017-07-15 04:50
本发明专利技术提供了一种面向压缩卷积神经网络的并行卷积运算方法及装置,包括:根据输入控制信号卷积数据移位链长度选择、累加偏移量使能以及卷积计算使能决定所采用的操作方式。采用两条串行移位寄存器链,分别输入卷积数据和卷积参数与通道偏移量,在同一输入卷积数据流同时进行3×3和1×1卷积运算。本发明专利技术的方法在原有的基于串行移位寄存器链的3×3卷积运算的基础上仅仅增加了一个乘法器、一个累加器、一个参数寄存器和一个偏移量寄存器,实现方法简单,执行效率高,能够有效加快压缩神经网络算法中卷积运算。本发明专利技术中的装置可通过简单的硬件单元扩展和复制,可同时输出多个特征图,功耗低、功能单元利用率高,处理速率快的优点。

【技术实现步骤摘要】
面向压缩卷积神经网络的并行卷积运算方法及装置
本专利技术涉及数字信号处理以及专用硬件加速器领域,具体地,涉及面向压缩卷积神经网络的并行卷积运算方法及装置。
技术介绍
近年来,卷积神经网络(ConvolutionalNeuralNetwork,CNN)在深度学习中取得了重大的进展。最著名的是在2012年AlexKrizhevsky等人提出了一个经典的CNN计算结构AlexNet,在图像分类和识别中获得了巨大成功。如图1所示,AlexNet的输入为一个3通道的227×227图片数据,其整个处理过程总共包括8层运算,前五层为卷积层,后三层为全连接层,其中第一层卷积采用3×11×11宽度的卷积核,卷积核个数为96,第二层卷积采用96×5×5宽度的卷积核,卷积核个数为256,余下三层卷积都采用不同通道数的3×3宽度卷积核。AlexNet的总参数量超过了8MB,并且单通道卷积核大小不一致,运算复杂,不适合在存储器和计算资源受限的平台上实现。在AlexNet取得成功后,研究人员又提出了其他的更为完善和优化的方法,其中最著名结构有ZFNet[2013年],VGGNet[2014年],GoogleNe本文档来自技高网...
面向压缩卷积神经网络的并行卷积运算方法及装置

【技术保护点】
一种面向压缩卷积神经网络的并行卷积运算方法,其特征在于,包括如下步骤:构建面向压缩卷积神经网络的并行卷积运算装置,根据输入控制信号卷积数据移位链长度选择、累加偏移量使能以及卷积计算使能决定所采用的操作方式。

【技术特征摘要】
1.一种面向压缩卷积神经网络的并行卷积运算方法,其特征在于,包括如下步骤:构建面向压缩卷积神经网络的并行卷积运算装置,根据输入控制信号卷积数据移位链长度选择、累加偏移量使能以及卷积计算使能决定所采用的操作方式。2.根据权利要求1所述的面向压缩卷积神经网络的并行卷积运算方法,其特征在于,在没有使能1×1卷积计算功能和增加偏移量功能时,从卷积参数存储器读取3×3卷积核的9个参数,串行地写入到卷积参数移位寄存器链中,3×3卷积计算单元读取卷积数据移位链输出的3×3矩阵窗口数据和卷积参数移位寄存器的值进行3×3卷积运算,并将卷积结果输出到外部存储器当中。3.根据权利要求1所述的面向压缩卷积神经网络的并行卷积运算方法,其特征在于,在没有使能1×1卷积计算功能、有使能增加偏移量功能时,从卷积参数存储器读取3×3卷积核的9个参数和3×3卷积计算偏移量,串行地写入到卷积参数移位寄存器链和3×3卷积计算偏移量寄存器中,3×3卷积计算单元读取卷积数据移位链输出的3×3矩阵窗口数据和卷积参数移位寄存器的值进行3×3卷积运算,并将卷积结果累加上偏移量,然后输出到外部存储器当中。4.根据权利要求1所述的面向压缩卷积神经网络的并行卷积运算方法,其特征在于,在有使能1×1卷积计算功能、没有使能累加偏移量功能时,从卷积参数存储器中读取3×3卷积核的9个参数和1×1卷积核的1个参数,串行地写入到卷积参数移位寄存器链和1×1卷积参数寄存器中,3×3卷积计算单元读取卷积数据移位链输出的3×3矩阵窗口数据和卷积参数移位寄存器的值进行3×3卷积运算,并将卷积结果输出到外部存储器当中;1×1卷积计算单元读取卷积数据移位链输出的3×3矩阵窗口数据的中间数据和1×1卷积参数...

【专利技术属性】
技术研发人员:陈锋
申请(专利权)人:上海客鹭信息技术有限公司
类型:发明
国别省市:上海,31

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1