一种基于分时复用将卷积神经网络映射并布局的方法技术

技术编号:37957541 阅读:10 留言:0更新日期:2023-06-30 09:31
本发明专利技术公开了一种基于分时复用将卷积神经网络映射并布局的方法,涉及片上网络及卷积神经网络研究技术领域,该方法首先在预处理阶段将目标卷积神经网络模型平坦化,并将神经元计算操作使用相似的数学表征进行描述;其次在模型分析阶段分析目标卷积神经网络的各层运算量,将神经元聚类为更大的神经元;再次在映射阶段将卷积神经网络的运算过程切片,使用分时复用映射算法将切片迭代映射到片上网络平台上;最后在布局阶段将构建好的计算单元布局到片上网络中。本发明专利技术提出的方法有助于将现代大型卷积神经网络映射并布局到资源规模有限的片上网络计算平台上,且该方法有助于配合多播路由算法,降低片上网络通信时的拥塞与延迟。迟。迟。

【技术实现步骤摘要】
一种基于分时复用将卷积神经网络映射并布局的方法


[0001]本专利技术涉及片上网络及卷积神经网络
,具体涉及一种基于分时复用将卷积神经网络映射并布局的方法。

技术介绍

[0002]卷积神经网络(Convo l ut i ona l Neura l Network,CNN)现已广泛应用于模式识别、预测等应用中。近年来,许多大规模CNN模型被提出,如VGG

16、A l exNet等,它们在许多应用领域中展现出了惊人的高精度。随着CNN的进一步发展,越来越多的硬件加速器被提出,以作为运行CNN的节能方案。其中片上网络(Network on Ch i p,NoC)作为多核处理器系统(Mu l t i

Processor System

on

Ch i p,MPSoC)的高效数据传输方案,已被应用于CNN计算中。
[0003]然而,为了将整个大规模CNN模型映射到NoC平台,要么扩大NoC规模,要么加强计算单元(process i ng e l ements,PEs)的计算能力。但是考虑成本、功耗等因素,在处理大规模CNN模型时,这两种解决方案实际上都是不可行的。
[0004]此外,在CNN计算应用下,数据流量模式与传统MPSoC中的数据流量模式显著不同:在CNN计算期间,将有多于总量60%的数据包仅通过30%的信道传输,数据流量将特别集中在连接两个相邻神经元层的传输信道上,而同一个神经元层中的信道大部分时间处于空闲状态。显然,这种通信情况将导致非常不平衡的流量模式,并导致NoC上的拥堵。
[0005]为了解决以上所述的问题,本专利技术提出了一种基于分时复用将卷积神经网络映射并布局的方法,本方法有助于将现代大型卷积神经网络映射并布局到资源规模有限的片上网络计算平台上,且该方法有助于配合多播路由算法,降低片上网络通信时的拥塞与延迟。

技术实现思路

[0006]本专利技术的目的在于提供一种基于分时复用将卷积神经网络映射并布局的方法。
[0007]本专利技术的目的可以通过以下技术方案实现:
[0008]一种基于分时复用将卷积神经网络映射并布局的方法,所述方法包括:
[0009]预处理阶段,将目标CNN模型平坦化,并将神经元计算操作使用相似的数学表征进行描述;
[0010]模型分析阶段,分析目标卷积神经网络的各层运算量,将神经元聚类为大神经元,得到聚类CNN;
[0011]映射阶段,将聚类CNN的运算过程切片,使用分时复用映射算法将切片迭代映射到片上网络平台上;
[0012]布局阶段,生成相应的PE与NoC,放置生成的PE,并通过NoC将它们互联以构建相应的CNN模型。
[0013]作为本专利技术进一步的方案:预处理阶段中,CNN模型的卷积层、池化层、全连接层展平过程后,CNN模型中的不同层转换成一个完全连通或部分连通的神经网络,实现CNN模型
平坦化。
[0014]作为本专利技术进一步的方案:CNN模型中的二维卷积运算,构造为式(1):
[0015][0016]其中K表示预定义的卷积核;n表示目标卷积的大小;I和O分别表示卷积层的输入和输出,对于三维卷积情况,保持上式中核函数不变,将输入扩展到其它维度;
[0017]CNN模型中的池化运算,使用最大池化操作对池化层输入进行采样,构造为式(2):
[0018][0019]其中I和Op表示池化层的输入和输出;m表示池化核大小;W等于1;定义为式(3):
[0020][0021]CNN模型中的全连接运算,构造为式(4):
[0022][0023]其中n是一层中的神经元数,v是该层中神经元计算后的输出数。
[0024]作为本专利技术进一步的方案:模型分析阶段中,将平坦CNN模型中的神经元分成几组,将不同层次的神经元将根据大小约束分为不同组的大神经元;
[0025]将每个大神经元分别映射到一个PE,PE在NoC平台上的位置将取决于映射策略。
[0026]作为本专利技术进一步的方案:所述PE分为乘加PE、最大池化PE、平均池化PE和相加PE。
[0027]作为本专利技术进一步的方案:映射阶段中,聚类CNN的运算过程切片中,聚类CNN的最大层需能够完整地在NoC平台上执行,保证至少有一层在一个工作时隙下执行。
[0028]作为本专利技术进一步的方案:所述分时复用映射算法过程为:共享CNN加速平台上的计算资源,一次映射到NoC平台,基于聚类CNN的运算过程逐层逐时执行的,使每次至少有一个层完全映射到NoC平台。
[0029]作为本专利技术进一步的方案:布局阶段中,使用N
×
N的2D

mesh拓扑NoC将PE连接,N定义为
[0030]完成每一层的映射迭代计算后,计算结果可以暂存在全局存储中,供下一次迭代计算使用。
[0031]本专利技术的有益效果:本专利技术通过将目标CNN模型进行预处理、模型分析、分时复用映射、布局等阶段,实现分析CNN各层运算量、聚类CNN神经元操作、切片CNN运算过程并分时复用映射到NoC上、生成相应的PE与NoC并构建CNN运算模型;有助于将现代大型卷积神经网络映射并布局到资源规模有限的片上网络计算平台上,且该方法有助于配合多播路由算法,降低片上网络通信时的拥塞与延迟。
附图说明
[0032]下面结合附图对本专利技术作进一步的说明。
[0033]图1是本专利技术的流程图;
[0034]图2是本专利技术CNN模型平坦化示意图;
[0035]图3是本专利技术CNN模型;
[0036]图4是本专利技术CNN神经元聚类后所需PE的种类和个数;
[0037]图5是本专利技术CNN切片和分时复用映射方法的流程图;
[0038]图6是本专利技术CNN均衡映射算法示意图;
[0039]图7是本专利技术CNN网络的PE映射位置结果示意图;
[0040]图8是本专利技术CNN网络工作时隙迭代计算示意图。
具体实施方式
[0041]下面将结合本专利技术实施例中的附图,对本专利技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本专利技术一部分实施例,而不是全部的实施例。基于本专利技术中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本专利技术保护的范围。
[0042]请参阅图1所示,本专利技术为一种基于分时复用将卷积神经网络映射并布局的方法,所述方法包括以下步骤:
[0043]S101:预处理阶段:将目标CNN模型平坦化,将神经元计算操作使用相似的数学表征进行描述;
[0044]S102:模型分析阶段:分析目标CNN模型的各层运算量,并将神经元聚类为大神经元,模型分析阶段用于分析目标CNN模型并确定所涉及的神经元操作;
[0045]S103:映射阶段:将CNN的运算过程切片,使用分时复用映射算法将切片迭代映射到片上网络平台上;本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于分时复用将卷积神经网络映射并布局的方法,其特征在于,所述方法包括:预处理阶段,将目标CNN模型平坦化,并将神经元计算操作使用相似的数学表征进行描述;模型分析阶段,分析目标卷积神经网络的各层运算量,将神经元聚类为大神经元,得到聚类CNN;映射阶段,将聚类CNN的运算过程切片,使用分时复用映射算法将切片迭代映射到片上网络平台上;布局阶段,生成相应的PE与NoC,放置生成的PE,并通过NoC将它们互联以构建相应的CNN模型。2.根据权利要求1所述的一种基于分时复用将卷积神经网络映射并布局的方法,其特征在于,预处理阶段中,CNN模型的卷积层、池化层、全连接层展平过程后,CNN模型中的不同层转换成一个完全连通或部分连通的神经网络,实现CNN模型平坦化。3.根据权利要求2所述的一种基于分时复用将卷积神经网络映射并布局的方法,其特征在于,CNN模型中的二维卷积运算,构造为式(1):其中K表示预定义的卷积核;n表示目标卷积的大小;I和O分别表示卷积层的输入和输出,对于三维卷积情况,保持上式中核函数不变,将输入扩展到其它维度;CNN模型中的池化运算,使用最大池化操作对池化层输入进行采样,构造为式(2):其中I和Op表示池化层的输入和输出;m表示池化核大小;W等于1;定义为式(3):CNN模型中的全连接运算,构造为式(4):其中n是一层中的神经元数,v是该层中神经元计算后的输...

【专利技术属性】
技术研发人员:刘毅王顺尧翁笑冬
申请(专利权)人:西安电子科技大学广州研究院
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1