【技术实现步骤摘要】
信息处理装置、神经网络程序和用于神经网络的处理方法
本专利技术涉及信息处理装置、神经网络程序和用于神经网络的处理方法。
技术介绍
深度学习(下文称为DL)是使用多层神经网络(下文称为NN)的机器学习。作为深度学习的示例的深度神经网络(下文称为DNN)是输入层、多个隐藏层和输出层按顺序被布置在其中的网络。每一层具有一个或多个节点,并且每个节点具有值。一层与下一层之间的节点通过边彼此连接,并且每个边具有变量(或参数),例如权重或偏差。在NN中,例如,通过基于前一级中的边的权重和节点的值执行预定运算(或计算(computation)、计算(calculation)或算术运算,下文称为“运算”)来获得每一层中的节点的值。当输入数据被输入至输入层的节点时,通过预定运算获得下一层(第一层)中的节点的值。然后,将通过该运算获得的数据输入至下一层(第二层),该下一层通过针对该层(第二层)的预定运算获得该层(第二层)中的节点的值。然后,作为最终层的输出层中的节点的值变成针对输入数据的输出数据。NN中的多个层基于变量和来自先前层 ...
【技术保护点】
1.一种信息处理装置,包括:/n存储器;/n连接至所述存储器的处理器,所述处理器包括:/n第一运算电路,其被配置成至少执行乘法运算、加法运算、逻辑运算以及积和运算,/n第二运算电路,其被配置成执行与所述乘法运算、所述加法运算、所述逻辑运算以及所述积和运算不同的特定运算;以及/n寄存器,其中/n所述处理器被配置成/n在包括多个层的神经网络中的第一层中执行第一运算,所述第一运算包括所述特定运算,/n在当由所述第二运算电路执行所述第一运算的特定运算时所述第一运算所需的第二运算时间等于或小于针对所述第一运算的在所述存储器与所述寄存器之间的转储所需的转储时间的情况下,通过由所述第二运 ...
【技术特征摘要】
20181221 JP 2018-2396401.一种信息处理装置,包括:
存储器;
连接至所述存储器的处理器,所述处理器包括:
第一运算电路,其被配置成至少执行乘法运算、加法运算、逻辑运算以及积和运算,
第二运算电路,其被配置成执行与所述乘法运算、所述加法运算、所述逻辑运算以及所述积和运算不同的特定运算;以及
寄存器,其中
所述处理器被配置成
在包括多个层的神经网络中的第一层中执行第一运算,所述第一运算包括所述特定运算,
在当由所述第二运算电路执行所述第一运算的特定运算时所述第一运算所需的第二运算时间等于或小于针对所述第一运算的在所述存储器与所述寄存器之间的转储所需的转储时间的情况下,通过由所述第二运算电路计算所述第一运算的特定运算的第二方法来执行所述第一运算,以及
当所述第二运算时间并非等于或小于所述转储时间时,在当通过由所述第一运算电路通过近似计算来计算所述第一运算的特定运算的第一方法来执行所述第一运算时所述第一运算所需的第一运算时间等于或小于所述转储时间的情况下,通过所述第一方法来执行所述第一运算。
2.根据权利要求1所述的信息处理装置,其中:
所述第一方法中的近似计算包括多个近似计算;并且
通过所述第一方法来执行所述第一运算包括:
通过所述第一方法利用在所述第一运算时间等于或小于所述转储时间的多个近似计算中的近似计算的误差最小的近似计算来执行所述第一运算。
3.根据权利要求1所述的信息处理装置,其中:
所述处理器被配置成
确定所述第二运算时间是否等于或小于所述转储时间,
在所述确定为真的情况下,
确定将通过所述第二方法执行所述第一运算,以及
在所述确定为假的情况下,
从所述第一运算时间等于或小于所述转储时间的多个近似计算中选择近似计算的误差最小的近似计算,以及
确定将通过所述第一方法利用所选择的近似计算执行所述第一运算。
4.根据权利要求3所述的信息处理装置,其中,所述处理器被配置成:在所述神经网络的学习中:
在所述学习的初始学习中,确定将通过所述第一方法还是通过所述第二方法执行所述特定运算,并且通过所确定的第一方法或第二方法执行所述第一运算;以及
在所述初始学习之后的重复学习步骤中,通过在所述初始学习中确定的所述第一方法或所述第二方法来执行所述第一运算。
5.根据权利要求1所述的信息处理装置,其中:
所述第二运算时间是以下运算时间之和:
所述第一运算电路用于执行在所述第一运算中包括的特定运算以外的非特定运算的指令执行的次数所需的第四运算时间,以及
所述第二运算电路用于执行在所述第一运算中包括的特定运算的指令执行的次数所需的第三运算时间;并且
所述第一运算时间是以下运算时间之和:
所述第一运算电路用...
【专利技术属性】
技术研发人员:白幡晃一,荒川敬,依田胜洋,伊藤真纪子,富田安基,
申请(专利权)人:富士通株式会社,
类型:发明
国别省市:日本;JP
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。