The present invention relates to deep convolutional neural network is an adaptive reconfigurable computing method and device, the method includes: according to the control signal calculation device program execution process; according to the depth of the neural network scale parameter convolution of dynamic reconfiguration of basic computing element to determine the combination level computing unit and the degree of parallelism; reconstruction of different loading process according to the corresponding data, the corresponding calculation of convolution neural network layer with different attributes, finally get the results of the group is connected with the output neurons. The invention solves the problem of proprietary hardware, low flexibility, can be designed to achieve the parameter reconstruction arithmetic unit depth convolutional neural network to support different scale; the invention can not only meet the convolution kernel parallel computing of the same size, and can realize the convolution parallel operation of different scale, can the operation unit dynamic reconfiguration greatly to improve the depth of parallelism of convolutional neural network operations, improve the computational performance.
【技术实现步骤摘要】
一种自适应可重构的深度卷积神经网络计算方法和装置
本专利技术涉及计算机
,具体涉及一种自适应可重构的深度卷积神经网络计算方法和装置。
技术介绍
本部分向读者介绍可能与本专利技术的各个方面相关的
技术介绍
,相信能够向读者提供有用的背景信息,从而有助于读者更好地理解本专利技术的各个方面。因此,可以理解,本部分的说明是用于上述目的,而并非构成对现有技术的承认。深度神经网络在当前的多个应用领域均产生了优异的效果,如人脸识别,物体检测,自动驾驶,语音识别等等,得到了十分广泛的应用。随着算法准确度的提升,神经网络的深度在不断增加,模型结构也在不断复杂化。数十甚至上百的网络层数、百万千万级的权值数据总数、大小各异的卷积核异构等等,都使得深度神经网络在实际计算的过程中,需要大量的计算资源和存储资源。考虑到性能功耗比,专用的硬件设计与在通用CPU或GPU上运行神经网络具有很大的优势,可以在低功耗的同时很好的满足计算性能。在硬件实现和设计的过程中,仍然存在着诸多问题,例如,如何进行计算基元个数等设计参数的选择。因为专用硬件的灵活性较低,设计参数的选择问题就显得尤为重要。在某一确定 ...
【技术保护点】
一种自适应可重构的深度卷积神经网络计算方法,其特征在于,包括:根据控制信号决定计算装置的程序执行流程,根据深度神经卷积网络规模参数对基本计算基元进行动态重构确定运算单元的组合级别和并行度;根据不同的重构情况载入相对应的处理数据,对不同属性的卷积神经网络层进行相应计算;进行对应数据的乘加操作、累加操作以及非线性激活函数映射,最终得到该组神经元的连接输出结果。
【技术特征摘要】
1.一种自适应可重构的深度卷积神经网络计算方法,其特征在于,包括:根据控制信号决定计算装置的程序执行流程,根据深度神经卷积网络规模参数对基本计算基元进行动态重构确定运算单元的组合级别和并行度;根据不同的重构情况载入相对应的处理数据,对不同属性的卷积神经网络层进行相应计算;进行对应数据的乘加操作、累加操作以及非线性激活函数映射,最终得到该组神经元的连接输出结果。2.根据权利要求1所述的方法,其特征在于,所述根据深度神经卷积网络规模参数对基本计算基元进行动态重构包括:神经元的卷积核宽度以及高度的规模小于等于基本计算基元的宽度和高度,则每个基本计算基元并行化处理,相互独立地执行运算。3.根据权利要求1所述的方法,其特征在于,所述根据深度神经卷积网络规模参数对基本计算基元进行动态重构包括:神经元的卷积核宽度和高度的规模大于一个基本计算基元相应的规模,但小于等于两个基本计算基元连接在一起的宽度以及高度的规模,则四个基本计算基元以方阵的形式组合在一起,形成一个二级计算单元;二级计算单元内各个基本计算基元组合在一起进行乘加运算,多个二级基本单元之间并行运行。4.根据权利要求1所述的方法,其特征在于,所述根据深度神经卷积网络规模参数对基本计算基元进行动态重构包括:神经元的卷积核宽度和高度的规模大于两个基本计算基元相应的规模,但小于等于三个基本计算基元连接在一起的宽度以及高度的规模,则九个基本计算基元以方阵的形式组合在一起,形成一个三级计算单元;三级计算单元内各个基本计算基元组合在一起进行乘加运算,多个三级基本计算单元之间并行运行。5.根据权利要求1所述的方法,其特征在于,进行对应数据的乘加操作、累加操作以及非线性激活函数映射,最终得到该组神经元的连接输出结果包括:运算单元完成相应的卷积和累加计算,如果网络模型在该层后衔接了池化层,完成该层所有状态后也输出最终计算结果;如果没有则完成该层计算操作,并输出最终计算结果。6.一种自适应可重构的深度卷积神经网络计算装置,其特征在于,包括:控制单元,用于决定计算装置的程序执行流程,采...
【专利技术属性】
技术研发人员:汪东升,王佩琪,刘振宇,
申请(专利权)人:清华大学,
类型:发明
国别省市:北京,11
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。