神经网络计算方法、装置、可读存储介质以及电子设备制造方法及图纸

技术编号:26792911 阅读:24 留言:0更新日期:2020-12-22 17:08
公开了一种神经网络计算方法,包括:在对神经网络的下一层进行卷积计算之前,确定处理器对所述神经网络的当前层进行计算时得到的第一特征图的尺寸;依据所述第一特征图的尺寸与下一层所支持卷积的第二特征图的尺寸,确定所述下一层的卷积计算顺序;基于所述卷积计算顺序,执行下一层的卷积计算指令。本公开的示例性实施例通过省去第一特征图的存储和第二特征图的载入过程,减少层间的特征图数据访问开销,减少计算单元的闲置时间。

【技术实现步骤摘要】
神经网络计算方法、装置、可读存储介质以及电子设备
本公开涉及神经网络计算领域,尤其涉及一种神经网络计算方法、装置、可读存储介质以及电子设备。
技术介绍
深度神经网络专用加速器被设计用来高效的处理深度神经网络推理,它们通常被嵌入到设备的片上处理器系统(SoC)中。为了节省芯片面积开销和功耗,通常包含了片上缓存系统和规模较大的乘加阵列(MAC)。片上缓存的速度非常快但大小通常有限,无法缓存所有的特征图和权重数据。神经网络层的计算通常被拆分为若干小型的计算子任务,特征图也同时被切片为若干小的特征图,小到可以被片上缓存完全装下的程度。原始的特征图通常被存储在了空间较大但速度较慢的片外内存(DDR)中。在每个计算周期开始的时候,特征图的一部分首先被载入到片上缓存中,再进行计算,最后被保存回片外内存中,在对片外内存的数据进行读写时,计算单元是闲置的。
技术实现思路
为了解决上述技术问题,提出了本公开。本公开的实施例提供了一种神经网络计算方法、装置、可读存储介质以及电子设备;能够减少神经网络层间消耗,提高计算效率。r>根据本公开的一个本文档来自技高网...

【技术保护点】
1.一种神经网络计算方法,包括:/n在对神经网络的下一层进行卷积计算之前,确定处理器对所述神经网络的当前层进行计算时得到的第一特征图的尺寸;/n依据所述第一特征图的尺寸与下一层所支持卷积的第二特征图的尺寸,确定所述下一层的卷积计算顺序;/n基于所述卷积计算顺序,执行下一层的卷积计算指令。/n

【技术特征摘要】
1.一种神经网络计算方法,包括:
在对神经网络的下一层进行卷积计算之前,确定处理器对所述神经网络的当前层进行计算时得到的第一特征图的尺寸;
依据所述第一特征图的尺寸与下一层所支持卷积的第二特征图的尺寸,确定所述下一层的卷积计算顺序;
基于所述卷积计算顺序,执行下一层的卷积计算指令。


2.根据权利要求1所述的方法,其中,所述依据所述第一特征图的尺寸与下一层所支持卷积的第二特征图的尺寸,确定所述下一层的卷积计算顺序包括:
当所述第一特征图的尺寸大于所述第二特征图的尺寸时,基于所述第一特征图的尺寸,将所述第一特征图划分为第一子特征图和第二子特征图,其中,所述第一子特征图的尺寸与所述第二特征图尺寸相等;
将所述第一子特征图作为下一层卷积的计算类型的所述第二特征图,并将所述第二子特征图存储至片外内存单元中。


3.根据权利要求1所述的方法,其中,所述依据所述第一特征图的尺寸与下一层所支持卷积的第二特征图的尺寸,确定所述下一层的卷积计算顺序包括:
当所述第一特征图的尺寸小于所述第二特征图的尺寸时,由片外内存载入与所述第一特征图相邻区域的第三特征图;
基于所述第一特征图和所述第三特征图,确定下一层卷积的计算类型的所述第二特征图。


4.根据权利要求1所述的方法,其中,所述在对神经网络的下一层进行卷积计算之前,确定处理器对所述神经网络的当前层进行计算时得到的第一特征图的尺寸包括:
当所述第一特征图的尺寸大于所述第二特征图时,基于所述第二特征图尺寸,将所述第一特征图的尺寸缩小至与所述第二特征图相同的尺寸;
依据缩小后的第一特征图尺寸,对当前层的原始特征图进行划分。


5.根据权利要求1所述的方法,其中,所述在对神经网络的下一层进行卷积计算之前,...

【专利技术属性】
技术研发人员:赵卓然王振江
申请(专利权)人:地平线上海人工智能技术有限公司
类型:发明
国别省市:上海;31

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1