一种基于行缓冲Linebuffer的并行计算方法及计算设备技术

技术编号:26067344 阅读:29 留言:0更新日期:2020-10-28 16:40
本发明专利技术提供了一种基于行缓冲Linebuffer的并行计算方法及计算设备,应用于模板计算结构,所述方法包括:确定模板计算对象;根据所述模板计算对象的模板参数和计算单元的个数构建行缓冲Linebuffer的预设模板;通过所述行缓冲Linebuffer的预设模板将模板数据同时传输至所述多个计算单元,由每一个所述计算单元并行处理各自的计算任务。本发明专利技术提供的方法由行缓冲Linebuffer的预设模板同时获取多个计算单元执行计算所需要的模板数据,进而由多个计算单元同步执行计算,相较于传统的方案来讲计算效率更高,且速度更快。

【技术实现步骤摘要】
一种基于行缓冲Linebuffer的并行计算方法及计算设备
本专利技术涉及卷积神经领域,特别是涉及一种基于行缓冲Linebuffer的并行计算方法及计算设备。
技术介绍
近年来,随着人工智能的发展,卷积神经网络得到越来越多的应用,专为卷积神经网络设计加速器架构也不断涌现。目前,卷积神经网络每次执行计算时需要为计算单元提供每次计算所需要的数据,而传统方式要么将全部输入数据存入片上存储,要么不断访问片外存储获取输入数据,采用第一种方式将增大片上存储压力,而采用第二种方式则会增大I/O访存压力。这时,一般会利用一种Linebuffer结构实现片上中间数据的缓冲,但是传统Linebuffer并不支持消费者的并行同步执行。
技术实现思路
鉴于上述问题,本专利技术提供了一种克服上述问题或至少部分地解决了上述问题的一种基于行缓冲Linebuffer的并行计算方法及计算设备。根据本专利技术的一个方面,提供了一种基于行缓冲Linebuffer的并行计算方法,应用于模板计算结构,所述方法包括:确定模板计算对象;根本文档来自技高网...

【技术保护点】
1.一种基于行缓冲Linebuffer的并行计算方法,应用于模板计算结构,所述方法包括:/n确定模板计算对象;/n根据所述模板计算对象的模板参数和计算单元的个数构建行缓冲Linebuffer的预设模板;/n通过所述行缓冲Linebuffer的预设模板将模板数据同时传输至所述多个计算单元,由每一个所述计算单元并行处理各自的计算任务。/n

【技术特征摘要】
1.一种基于行缓冲Linebuffer的并行计算方法,应用于模板计算结构,所述方法包括:
确定模板计算对象;
根据所述模板计算对象的模板参数和计算单元的个数构建行缓冲Linebuffer的预设模板;
通过所述行缓冲Linebuffer的预设模板将模板数据同时传输至所述多个计算单元,由每一个所述计算单元并行处理各自的计算任务。


2.根据权利要求1所述的方法,所述模板计算结构为卷积神经网络时,所述方法包括:
确定需并行处理的网络层;
为所述网络层分配多个计算单元;
根据所述网络层的模板参数与计算单元的个数构建行缓冲Linebuffer的预设模板;
通过所述行缓冲Linebuffer的预设模板将模板数据同时传输至所述多个计算单元,由每一个所述计算单元并行处理所述网络层的任务,其中,所述模板数据是所述模板参数限定的原模板数据。


3.根据权利要求2所述的方法,其中,所述Linebuffer的预设模板由多个指定大小的原模板组成,且所述原模板的个数与所述计算单元的数量相等;
其中,所述多个原模板在所述预设模板中依次连接,且至少部分重叠。


4.根据权利要求2或3所述的方法,其中,所述通过所述行缓冲Linebuffer的预设模板将模板数据同时传输至所述多个计算单元,由每一个所述计算单元并行处理所述网络层的任务,包括:
通过所述行缓冲Linebuffer的多个原模板将所述多个原模板的模板数据同时传输至所述多个计算单元,由每一个所述计算单元并行处理所述网络层的任务。


5.根据权利要求2-4任一项所述的方法,其中,所述通过所述行缓冲Linebuffer的多个原...

【专利技术属性】
技术研发人员:张伟豪李涵王封丁瑞强
申请(专利权)人:北京灵汐科技有限公司
类型:发明
国别省市:北京;11

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1