【技术实现步骤摘要】
一种用于神经网络处理器数据稀梳化加速的方法及装置
本专利技术涉及神经网络
,尤其涉及一种用于神经网络处理器数据稀梳化加速的方法及装置。
技术介绍
神经网络:(NeuralNetwork),是20世纪80年代以来人工智能领域兴起的研究热点。它从信息处理角度对人脑神经元网络进行抽象,建立某种简单模型,按不同的连接方式组成不同的网络。在工程与学术界也常直接简称为神经网络或类神经网络。神经网络是一种运算模型,由大量的节点(或称神经元)之间相互联接构成。每个节点代表一种特定的输出函数,称为激励函数(activationfunction)。每两个节点间的连接都代表一个对于通过该连接信号的加权值,称之为权重,这相当于人工神经网络的记忆。网络的输出则依网络的连接方式、权重值和激励函数的不同而不同。而网络自身通常都是对自然界某种算法或者函数的逼近,也可能是对一种逻辑策略的表达。最近十多年来,人工神经网络的研究工作不断深入,已经取得了很大的进展,其在模式识别、智能机器人、自动控制、预测估计、生物、医学、经济等领域已成功地解决了许多现代计算机难以解决的实际问题,表现出了良好的智能 ...
【技术保护点】
1.一种用于神经网络处理器数据稀梳化加速的方法,其特征在于,该方法包括以下步骤:步骤1:首先RAM的读地址寄存器ffr_raddr和RAM的读地址寄存器wfr_raddr根据当前卷积的基本信息从FFR和WFR中分别读出对应的flag并根据计算的进程完成相应的自我更新;步骤2:从FFR和WFR中读出的flag被存入RAM读出数据寄存器ffr_rdata和RAM读出数据寄存器wfr_rdata中;步骤3:RAM读出数据寄存器ffr_rdata和RAM读出数据寄存器wfr_rdata被送入FD,FD结合两边的flag产生出RAM的读地址寄存器fdr_raddr和RAM的读地址寄存 ...
【技术特征摘要】
1.一种用于神经网络处理器数据稀梳化加速的方法,其特征在于,该方法包括以下步骤:步骤1:首先RAM的读地址寄存器ffr_raddr和RAM的读地址寄存器wfr_raddr根据当前卷积的基本信息从FFR和WFR中分别读出对应的flag并根据计算的进程完成相应的自我更新;步骤2:从FFR和WFR中读出的flag被存入RAM读出数据寄存器ffr_rdata和RAM读出数据寄存器wfr_rdata中;步骤3:RAM读出数据寄存器ffr_rdata和RAM读出数据寄存器wfr_rdata被送入FD,FD结合两边的flag产生出RAM的读地址寄存器fdr_raddr和RAM的读地址寄存器wdr_raddr;步骤4:根据RAM的读地址寄存器fdr_raddr和RAM的读地址寄存器wdr_raddr分别从FDR和WDR中读出相应的feature数据,并存入RAM读出数据寄存器fdr_rdata和RAM读出数据寄存器wdr_rdata;步骤5:RAM读出数据寄存器fdr_rdata和RAM读出数据寄存器wdr_rdata被送入PE,完成相应的乘累加操作。2.根据权利要求1所述的用于神经网络处理器数据稀梳化加速的方法,其特征在于,所述FDR的存储方式为:;所述FFR的存储方式为:;FDR存储featuremap的数据本身,按水平方向光栅扫描的顺序存储,每个entry存储一个feature值,FFR存储featuremap的flag值,每个entry8个bit对应8个值,1表示非0,0表示为0。3.根据权利要求1所述的用于神经网络处理器数据稀梳化加速的方法,其特征在于,所述WDR的存储方式为:;所述WFR的存储方式为:;WF...
【专利技术属性】
技术研发人员:翟云,
申请(专利权)人:合肥君正科技有限公司,
类型:发明
国别省市:安徽,34
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。