【技术实现步骤摘要】
【国外来华专利技术】拆分用于在神经网络处理器中处理的输入数据
技术介绍
1.
本公开涉及用于执行神经网络操作的电路,并且更具体地涉及用于在神经网络处理器处处理的输入数据的光栅化。2.相关技术描述人工神经网络(ANN)是使用连接节点的集合来处理输入数据的计算系统或模型。ANN通常被组织成层,其中不同的层对其输入执行不同类型的转换。ANN的扩展或变体诸如卷积神经网络(CNN)、递归神经网络(RNN)和深度信念网络(DBN)已受到大量关注。这些计算系统或模型通常涉及广泛的计算操作,包括相乘和累加。例如,CNN是一类主要使用输入数据和内核数据之间的卷积的机器学习技术,卷积可分解为相乘和累加操作。根据输入数据的类型和待执行的操作,这些机器学习系统或模型可被不同地配置。此类变化的配置将包括例如预处理操作、输入数据中的通道数量、待使用的内核数据、待应用于卷积结果的非线性函数以及各种后处理操作的应用。使用中央处理单元(CPU)及其主存储器来实例化和执行各种配置的机器学习系统或模型相对容易,因为此类系统或模型仅通过更新代码即可实例化。然而,仅依赖 ...
【技术保护点】
1.一种神经处理器电路,包括:/n数据读取器,所述数据读取器包括第一光栅器电路,所述第一光栅器电路指示所述数据读取器读取输入数据的片段;/n数据缓冲器,所述数据缓冲器被配置为存储所述输入数据的所接收的片段,所述数据缓冲器包括第二光栅器电路,所述第二光栅器电路被配置为生成并发送工作单元,所述工作单元中的每个工作单元对应于存储在所述数据缓冲器中的所述输入数据片段的一部分;和/n神经引擎,所述神经引擎被配置为接收所述工作单元并基于使用对应内核对工作单元的一部分执行的乘法累加操作来生成输出值。/n
【技术特征摘要】
【国外来华专利技术】20180504 US 15/971,3321.一种神经处理器电路,包括:
数据读取器,所述数据读取器包括第一光栅器电路,所述第一光栅器电路指示所述数据读取器读取输入数据的片段;
数据缓冲器,所述数据缓冲器被配置为存储所述输入数据的所接收的片段,所述数据缓冲器包括第二光栅器电路,所述第二光栅器电路被配置为生成并发送工作单元,所述工作单元中的每个工作单元对应于存储在所述数据缓冲器中的所述输入数据片段的一部分;和
神经引擎,所述神经引擎被配置为接收所述工作单元并基于使用对应内核对工作单元的一部分执行的乘法累加操作来生成输出值。
2.根据权利要求1所述的神经处理器电路,其中所述神经引擎中的每个神经引擎包括第三光栅器电路,所述第三光栅器电路指示所述神经引擎中的每个神经引擎使所述工作单元的在不同周期要与所述内核相乘的部分移位。
3.根据权利要求2所述的神经处理器电路,其中所述第三光栅器电路被配置为跟踪以下中的一者或多者:卷积组、工作单元、输出通道组、输入通道组和对应于所述工作单元的与所述内核相乘的所述部分的输出通道。
4.根据权利要求1所述的神经处理器电路,还包括神经任务管理器,所述神经任务管理器被配置为将任务信息发送到所述第一光栅器电路和所述第二光栅器电路,所述任务信息至少指示所述输入数据如何被分段成所述工作单元。
5.根据权利要求1所述的神经处理器电路,其中所述输入数据的所述片段是以下中的一部分:所述输入数据的切片,垂直划分所述输入数据的所述输入数据的切片,以及水平划分所述切片中的每个切片的片段。
6.根据权利要求1所述的神经处理器电路,其中所述数据读取器还被配置为从源检索用于神经网络处理的所述输入数据的另一片段,所述另一片段具有与所述片段不同的形状。
7.根据权利要求1所述的神经处理器电路,其中所述工作单元中的至少两个工作单元具有不同的形状。
8.一种操作神经处理器电路的方法,包括:
由所述神经处理器电路的数据读取器中的第一光栅器电路指示以使所述数据读取器接收用于神经网络处理的输入数据的片段;
将所述输入数据的所接收的片段存储在所述神经处理器电路的数据缓冲器中;
由所述数据缓冲器中的第二光栅器电路指示以使所述数据缓冲器将工作单元从所述数据缓冲器发送到神经引擎的输入缓冲器电路,所述工作单元中的每个工作单元对应于存储在所述数据缓冲器中的所述输入数据片段的一部分,所述第二光栅器电路与所述第一光栅器电路分开;以及
由所述神经引擎中的每个神经引擎基于使用对应内核对工作单元的一部分执行的乘法累加操作来生成所述神经引擎的输出值。
9.根据权利要求8所述的方法,其中生成所述神经引擎的所述输出值包括:
由所述神经引擎中的每个神经引擎中的第三光栅器电路指示以使所述神经引擎中的每个神经引擎中的输入缓冲器使所述工作单元的在不同周期要与所述内核相乘的部分移位,所述第三光栅器电路...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。