【技术实现步骤摘要】
用于管理卷积计算的方法和对应设备
[0001]相关申请的交叉引用
[0002]本申请要求于2020年10月1日提交的法国专利申请第2010063号的权益,该申请在此通过引用并入本文。
[0003]实现和实施例涉及操作卷积计算的人工神经网络,特别是卷积计算的管理。
技术介绍
[0004]可以提及例如通常应用于识别图像或视频中的对象或人的卷积神经网络或CNN,这称为2D卷积。
[0005]卷积神经网络通常包含连续地处理信息的四种层类型:卷积层,一个接一个地处理例如图像块;激活层,通常是非线性函数,可以提高卷积层的结果的相关性;池化层,可以减少层的维度;以及全连接层(或密集层),将一个层的所有神经元连接到前一层的所有神经元。
[0006]针对每一层,输入数据从前一层到达输入通道,并且输出数据在输出通道上被传送。输入和输出通道对应于例如随机存取存储器的存储器位置。输出通道的集合称为“特征图”。
[0007]卷积层通常对应于输入数据和卷积核权重数据的内积。权重数据是指与给定卷积核相关的卷积运算的 ...
【技术保护点】
【技术特征摘要】
1.一种用于管理由计算单元执行的卷积计算的方法,所述计算单元被适配为根据被应用于至少一个输入通道上的输入数据块的卷积核来计算输出通道上的输出数据,其中对每个输入数据块的计算分别对应于输出通道上的输出数据,并且其中每个卷积核的所述计算分别对应于每个输出通道上的所述输出数据,所述方法包括:标识在所述计算单元的临时工作存储器中可用的存储器位置的大小;在所述临时工作存储器中预加载能够在所述存储器的所述大小下被存储的最大数目的卷积核;以及控制所述计算单元计算输出数据的集合,所述输出数据的集合能够根据预加载的卷积核来计算。2.根据权利要求1所述的方法,其中控制所述计算单元计算所述输出数据的集合包括:在所述计算单元中依次加载与所述输出数据的集合相对应的所述输入数据块。3.根据权利要求1所述的方法,还包括在所述临时工作存储器中重复地预加载所述最大数目的卷积核并且重复地控制所述计算单元计算所述输出数据的集合,直到计算出所有输出通道中的所述输出数据的集合。4.根据权利要求1所述的方法,其中所述输出数据的集合对应于在每个输出通道中一次能够被接收的所述输出数据的最大大小,并且其中所述集合包括每个输出通道的完整输出数据或仅包括每个输出通道的所述输出数据的部分。5.根据权利要求4所述的方法,其中每个输出通道的所述输出数据的所述部分对应于输出数据的一行或一组行。6.根据权利要求4所述的方法,其中,当所述集合仅包括每个输出通道的所述输出数据的所述部分时,重复地预加载和控制包括:针对同一所述部分,重复地预加载与先前预加载的卷积核不同的卷积核并且重复地控制,直到针对所有输出通道计算出所述部分的所有所述输出数据;以及针对其他部分,重新开始预加载,直到计算出所有所述输出通道的所有其他部分中的所有所述输出数据。7.根据权利要求1所述的方法,还包括:当所述临时工作存储器中可用的所述存储器位置的所述大小小于最小大小阈值时,分配所述计算单元中大小为所述最小大小阈值的缓冲存储器的存储器位置,其中预加载所述最大数目的卷积核包括:预加载能够在所述最小大小阈值下被存储的最大数目的卷积核。8.根据权利要求1所述的方法,其中所述卷积核包括权重数据,并且其中预加载包括重新组织所述卷积核的所述权重数据以优化所述输出数据的所述计算。9.根据权利要求1所述的方法,其中所述卷积核包括权重数据,并且其中控制所述计算单元计算所述输出数据的集合包括:将加载的所述输入数据块与预加载的所述卷积核的所述权重数据进行相乘和累加。10.根据权利要求1所述的方法,还包括:在将所述卷积核预加载在所述临时工作存储器中之前,将所述卷积核存储在所述计算单元内部或外部的非易失性存储器中,并且在所述计算单元的控制的同时,将所述输入数据和所述输出数据存储在所述计算单元内部或外部的所述易失性存储器中。11.一种非暂态计算机可读存储介质,包括...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。