卷积神经网络的加速方法及装置制造方法及图纸

技术编号:15392210 阅读:73 留言:0更新日期:2017-05-19 05:10
本发明专利技术提供了一种卷积神经网络的加速方法及装置,涉及图像处理技术领域,其中,该方法包括:在卷积神经网络中设置半停模块;在所述卷积神经网络的预测过程中,当执行至所述半停模块时,计算所述预测过程当前的预测结果;判断当前的所述预测结果是否满足预设预测要求;当当前的所述预测结果满足所述预设预测要求时,停止所述预测过程,并将当前的所述预测结果作为所述卷积神经网络的最终预测结果,否则,继续执行所述预测过程。本发明专利技术提供的卷积神经网络的加速方法及装置,可以解决现有技术中存在的CNN运行速度慢,难以执行实时性要求较高的任务的技术问题。

Method and apparatus for accelerating a convolution neural network

The present invention provides a method and a device for accelerating convolutional neural network, which relates to the technical field of image processing, wherein, the method comprises: half stop module is arranged in a convolutional neural network; in the process of forecasting the convolutional neural network, when performing to the half stop module, calculation of the prediction results the current process of judgment; the prediction results of whether the current forecast meet preset requirements; when the current of the prediction results meet the preset prediction requirement, the prediction process stopped, and will present the prediction results as the final prediction result, the convolutional neural network or continue to perform the prediction process. The method and the device for accelerating the convolution neural network provided by the invention can solve the technical problems that the CNN in the prior art has slow running speed and difficult to execute the tasks with higher real-time requirements.

【技术实现步骤摘要】
卷积神经网络的加速方法及装置
本专利技术涉及图像处理
,尤其是涉及一种卷积神经网络的加速方法及装置。
技术介绍
近来,深度学习在语音分析、图像识别和自然语言处理等相关领域得到了广泛应用。卷积神经网络(CNN,ConvolutionalNeuralNetwork)是深度学习的一个重要分支,已成为当前语音分析和图像识别领域的研究热点。CNN由于其超强的特征提取能力以及端到端的全局优化能力,使得视觉目标检测、分类识别等的精度大幅提升。CNN是为识别二维形状而特殊设计的一个多层感知器,这种网络结构对平移、比例缩放、倾斜或者共他形式的变形具有高度不变性。CNN包括多层卷积层和池化层,在CNN实际生产应用中一般分为模型训练和模型预测两个阶段。模型训练过程是基于大规模的含有人工标注信息的数据集,对网络参数进行学习和调整,具体如下:CNN接收输入的数据集,经过多层卷积层和池化层分别进行卷积运算和降维运算,从而提取该数据集的特征;然后对输入的给定训练数据集,计算输出值,并与期望值比较,若有误差则反向调整参数,使模型的准确率更高;经过多次提取特征和反向调整参数获得的最优参数组合即为训练模型。模型预测是依据训练模型对输入数据进行运算,确定分类或识别结果,模型预测过程与模型训练过程较为类似。综上可知,CNN在模型预测过程中,需要进行大量的卷积运算和降维运算,因而CNN的运行速度慢,难以执行实时性要求较高的任务。
技术实现思路
有鉴于此,本专利技术的目的在于提供一种卷积神经网络的加速方法及装置,以解决现有技术中存在的CNN运行速度慢,难以执行实时性要求较高的任务的技术问题。第一方面,本专利技术实施例提供了一种卷积神经网络的加速方法,所述方法包括:在卷积神经网络中设置半停模块;在所述卷积神经网络的预测过程中,当执行至所述半停模块时,计算所述预测过程当前的预测结果;判断当前的所述预测结果是否满足预设预测要求;当当前的所述预测结果满足所述预设预测要求时,停止所述预测过程,并将当前的所述预测结果作为所述卷积神经网络的最终预测结果,否则,继续执行所述预测过程。结合第一方面,本专利技术实施例提供了第一方面的第一种可能的实施方式,其中,计算所述预测过程当前的预测结果,包括:确定所述半停模块的上一运算层,根据所述上一运算层的输出结果和所述卷积神经网络的参数,计算当前的所述预测结果。结合第一方面,本专利技术实施例提供了第一方面的第二种可能的实施方式,其中,所述方法还包括:在所述卷积神经网络的前向传播训练过程中,当执行至所述半停模块时,计算所述前向传播训练过程当前的训练结果;判断当前的所述训练结果是否满足预设训练要求;当当前的所述训练结果满足所述预设训练要求时,停止所述前向传播训练过程,并确定前向传播路径,否则,继续执行所述前向传播训练过程。结合第一方面的第二种可能的实施方式,本专利技术实施例提供了第一方面的第三种可能的实施方式,其中,所述方法还包括:在所述卷积神经网络的反向传播训练过程中,确定所述前向传播训练过程停止时对应的第一半停模块,以及所述前向传播路径中,与所述第一半停模块相邻的第二半停模块;更新所述第一半停模块和所述第二半停模块之间的模型参数。结合第一方面的第三种可能的实施方式,本专利技术实施例提供了第一方面的第四种可能的实施方式,其中,所述方法还包括:重复所述卷积神经网络的前向传播训练过程和反向传播训练过程,直至所述卷积神经网络收敛。结合第一方面的第三种可能的实施方式,本专利技术实施例提供了第一方面的第五种可能的实施方式,其中,更新所述第一半停模块和所述第二半停模块之间的模型参数,包括:计算所述第一半停模块和所述第二半停模块之间的每一运算层的模型参数的梯度;根据每一所述运算层的模型参数的梯度更新每一所述运算层的模型参数。结合第一方面的第二种可能的实施方式,本专利技术实施例提供了第一方面的第六种可能的实施方式,其中,计算所述前向传播训练过程当前的训练结果,包括:确定所述半停模块的上一运算层,根据所述上一运算层的输出结果和所述卷积神经网络的参数,计算当前的所述训练结果。第二方面,本专利技术实施例还提供一种卷积神经网络的加速装置,所述装置包括:设置模块,用于在卷积神经网络中设置半停模块;第一计算模块,用于在所述卷积神经网络的预测过程中,当执行至所述半停模块时,计算所述预测过程当前的预测结果;第一判断模块,用于判断当前的所述预测结果是否满足预设预测要求;结束控制模块,用于当当前的所述预测结果满足所述预设预测要求时,停止所述预测过程,并将当前的所述预测结果作为所述卷积神经网络的最终预测结果,否则,继续执行所述预测过程。结合第二方面,本专利技术实施例提供了第二方面的第一种可能的实施方式,其中,所述第一计算模块具体用于:确定所述半停模块的上一运算层,根据所述上一运算层的输出结果和所述卷积神经网络的参数,计算当前的所述预测结果。结合第二方面,本专利技术实施例提供了第二方面的第二种可能的实施方式,其中,所述装置还包括:第二计算模块,用于在所述卷积神经网络的前向传播训练过程中,当执行至所述半停模块时,计算所述前向传播训练过程当前的训练结果;第二判断模块,用于判断当前的所述训练结果是否满足预设训练要求;中止控制模块,用于当当前的所述训练结果满足所述预设训练要求时,停止所述前向传播训练过程,并确定前向传播路径,否则,继续执行所述前向传播训练过程。本专利技术实施例带来了以下有益效果:在本专利技术实施例中,在卷积神经网络中设置半停模块,在卷积神经网络的预测过程中,当执行至半停模块时,计算预测过程当前的预测结果,判断当前的预测结果是否满足预设预测要求,当当前的预测结果满足预设预测要求时,停止该预测过程,并将当前的预测结果作为卷积神经网络的最终预测结果,否则,继续执行该预测过程。通过本专利技术实施例提供的卷积神经网络的加速方法及装置,当执行至半停模块时,会根据当前的预测结果是否满足预设预测要求,来控制是否停止预测过程,即控制CNN是否提前结束预测过程,从而减少CNN的冗余计算,在保证准确率的同时提升了CNN的运行速度,进而可以满足实时性要求较高的任务的需求,解决了现有技术中存在的CNN的运行速度慢,难以执行实时性要求较高的任务的问题。本专利技术的其他特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本专利技术而了解。本专利技术的目的和其他优点在说明书、权利要求书以及附图中所特别指出的结构来实现和获得。为使本专利技术的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。附图说明为了更清楚地说明本专利技术具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本专利技术的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。图1为本专利技术第一实施例提供的卷积神经网络的加速方法的预测过程示意图;图2为本专利技术第一实施例提供的卷积神经网络的预测过程的基本结构示意图;图3为本专利技术第一实施例提供的卷积神经网络的加速方法的前向传播训练过程示意图;图4为本专利技术第一实施例提供的卷积神经网络的加速方法的反向传播训练过程示意图;图5为本专利技术第一实施例提供的卷积神经网络的本文档来自技高网...
卷积神经网络的加速方法及装置

【技术保护点】
一种卷积神经网络的加速方法,其特征在于,所述方法包括:在卷积神经网络中设置半停模块;在所述卷积神经网络的预测过程中,当执行至所述半停模块时,计算所述预测过程当前的预测结果;判断当前的所述预测结果是否满足预设预测要求;当当前的所述预测结果满足所述预设预测要求时,停止所述预测过程,并将当前的所述预测结果作为所述卷积神经网络的最终预测结果,否则,继续执行所述预测过程。

【技术特征摘要】
1.一种卷积神经网络的加速方法,其特征在于,所述方法包括:在卷积神经网络中设置半停模块;在所述卷积神经网络的预测过程中,当执行至所述半停模块时,计算所述预测过程当前的预测结果;判断当前的所述预测结果是否满足预设预测要求;当当前的所述预测结果满足所述预设预测要求时,停止所述预测过程,并将当前的所述预测结果作为所述卷积神经网络的最终预测结果,否则,继续执行所述预测过程。2.根据权利要求1所述的方法,其特征在于,计算所述预测过程当前的预测结果,包括:确定所述半停模块的上一运算层,根据所述上一运算层的输出结果和所述卷积神经网络的参数,计算当前的所述预测结果。3.根据权利要求1所述的方法,其特征在于,所述方法还包括:在所述卷积神经网络的前向传播训练过程中,当执行至所述半停模块时,计算所述前向传播训练过程当前的训练结果;判断当前的所述训练结果是否满足预设训练要求;当当前的所述训练结果满足所述预设训练要求时,停止所述前向传播训练过程,并确定前向传播路径,否则,继续执行所述前向传播训练过程。4.根据权利要求3所述的方法,其特征在于,所述方法还包括:在所述卷积神经网络的反向传播训练过程中,确定所述前向传播训练过程停止时对应的第一半停模块,以及所述前向传播路径中,与所述第一半停模块相邻的第二半停模块;更新所述第一半停模块和所述第二半停模块之间的模型参数。5.根据权利要求4所述的方法,其特征在于,所述方法还包括:重复所述卷积神经网络的前向传播训练过程和反向传播训练过程,直至所述卷积神经网络收敛。6.根据权利要求4所述的方法,其特征在于,更新所述第一半停模块和所述第...

【专利技术属性】
技术研发人员:周建设张勇东张冬明刘杰史金生张志伟
申请(专利权)人:首都师范大学中国科学院计算技术研究所
类型:发明
国别省市:北京,11

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1