【技术实现步骤摘要】
【国外来华专利技术】存储器处理单元架构映射技术
[0001]相关申请的交叉引用
[0002]本申请要求2020年8月31日提交的美国临时专利申请No.63/072,904的权益,其全部内容合并在本文中。
技术介绍
[0003]计算系统已经对现代社会的进步作出了重大贡献,并且被用于许多应用中以实现有利的结果。诸如人工智能、机器学习、大数据分析等的应用对大量数据执行计算。在常规计算系统中,将数据从存储器传送到一个或更多个处理单元,处理单元对数据执行计算,然后将结果传送回存储器。将大量数据从存储器传送到处理单元并传送回存储器需要时间和消耗功率。因此,存在对减少处理延迟、数据延迟和/或功率消耗的改进的计算系统的持续需求。
技术实现思路
[0004]通过参考以下描述和附图可以最好地理解本技术,所述描述和附图用于示出针对用于存储器处理架构的神经网络映射技术的本技术的实施例。
[0005]在一个实施例中,一种存储器处理单元(MPU)配置方法可以包括基于一个或更多个神经网络模型来配置多个处理区域中的一组或更多组核心的操作。所述多个处理区域可以在第 ...
【技术保护点】
【技术特征摘要】
【国外来华专利技术】1.一种存储器处理单元配置方法,包括:基于一个或更多个神经网络模型配置多个处理区域中的一组或更多组核心的操作,其中所述多个处理区域在第一存储器的多个区域之间交错,其中所述多个处理区域中的每个处理区域包括多个计算核心,其中所述多个处理区域中的每个相应处理区域的所述多个计算核心中的每个计算核心被耦合在第一多个存储器区域中的相邻存储器区域之间,并且其中第二存储器被耦合到所述多个处理区域;以及配置数据流,所述数据流包括:核心至核心数据流,其在所述多个处理区域中的相应处理区域中的相邻计算核心之间;存储器至核心数据流,其从所述第一存储器的所述多个区域中的相应区域到所述多个处理区域中的一个相邻处理区域内的一个或更多个核心;核心至存储器数据流,其从所述多个处理区域中的一些处理区域内的一个或更多个核心到所述第一存储器的所述多个区域中的一个相邻区域;以及存储器至核心数据流,其从第二存储器区域到所述多个处理区域中的对应处理区域的一个或更多个核心。2.根据权利要求1所述的MPU配置方法,还包括:将所述神经网络模型的一个或更多个层映射到所述多个处理区域中的一个或更多个相应处理区域中的一个或更多个对应核心集群;基于所述神经网络模型的对应的一个或更多个层来配置所述一个或更多个核心集群的操作;以及基于所述神经网络模型的对应的一个或更多个层来配置所述一个或更多个核心集群之间的所述数据流。3.根据权利要求1所述的MPU配置方法,还包括:将所述神经网络模型的一个或更多个层的部分映射到所述多个处理区域中的一个或更多个相应处理区域中的一个或更多个对应核心集群;基于所述神经网络模型的所述一个或更多个层的对应部分来配置所述一个或更多个核心集群的操作;以及基于所述神经网络模型的所述一个或更多个层的对应部分来配置所述一个或更多个核心集群之间的所述数据流。4.根据权利要求1所述的MPU配置方法,以及:将所述神经网络模型的一组或更多组融合层映射到所述多个处理区域中的一个或更多个相应处理区域中的一个或更多个对应核心集群;基于所述神经网络模型的对应的一组或更多组融合层来配置所述一个或更多个核心集群的操作;以及基于所述神经网络模型的对应的一组或更多组融合层来配置所述一个或更多个核心集群之间的所述数据流。5.根据权利要求1所述的MPU配置方法,其中所述一组核心包括多个近存储器(M)核心,并且其中所述近存储器(M)核心的操作包括从由密集函数、二维卷积、深度方向卷积、可分离卷积组成的组中选择的一个或更多个操作。
6.根据权利要求5所述的MPU配置方法,其中所述近存储器(M)核心的操作还包括选自由最大池化、平均池化、ReLU激活、ReLu
‑
x激活、上采样和零填充组成的组中的一个或更多个融合操作。7.根据权利要求1所述的MPU配置方法,其中所述一组核心包括一个或更多个算术(A)核心,并且其中算术(A)核心的操作包括选自由加法、乘法以及旁路组成的组中的一个或更多个操作。8.根据权利要求1所述的MPU配置方法,其中算术(A)核心的操作还包括选自由ReLU激活、ReLu
‑
x激活和泄漏ReLu
‑
x激活组成的组中的一个或更多个融合操作。9.根据权利要求1所述的MPU配置方法,还包括:基于所述一个或更多个神经网络模型,将所述第一存储器的多个存储器区域配置成包括全缓冲区模式、部分缓冲区模式、分支缓冲区模式和逐像素缓冲区模式的一个或更多个模式。10.根...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。