The invention provides a learning system and a learning method capable of updating the parameters of the neural network at high speed. The learning system has a number of differential value computing units and parameter updating units, and the neural network is updated with parameters, in which the multiple differential value units do not synchronously perform the following actions: the parameters of a time point are received from the parameter update department; the differential values are used to update the parameters according to the received parameters; the differential values are sent to the differential values. To the parameter update department, the parameter update department performs the following action: the differential value is received from the differential value calculation unit; the differential value calculation of the multiple differential value calculation department is not synchronously updated according to the received differential value; the updated parameters are sent to the multiple differential value calculation department, and the differential value calculation unit is used for the calculation of the differential value. Considering the obsolescence corresponding to the number of updates, the differential value is calculated, which is the number of times the parameter is updated during the period from the reception time point of the parameter to the calculated differential value that is used by the parameter update department to update the parameters.
【技术实现步骤摘要】
学习系统与学习方法
本专利技术涉及一种对神经网络用参数进行更新的学习系统与学习方法。
技术介绍
在图像识别领域存在称作一般物体识别的问题。该问题是对图像中存在的鸟、车等物体的种类(class)进行推定的问题。近年来,一般物体识别问题的识别性能的改善很显著,这很大程度是层数多的卷积神经网络(ConvolutionNeuralNetwork,以下称作CNN。例如参考非专利文献1)带来的。在图像识别领域过去提出过各种各样的识别算法,但随着学习数据(输入数据与正确答案之组合)变得庞大,出现了CNN超出了其他算法识别性能的倾向。CNN的模型表现能力较高,但另一方面,一直有人指出CNN存在学习数据的特征过度特化这种称作“过学习”的问题。但是,近年来学习数据的量已经逐渐增大到了能够避免过学习问题的水平。现有技术文献非专利文献非专利文献1:RenWu,ShengenYan,YiShan,QingqingDang,andGangSun,"DeepImage:ScalingupImageRecognition",arXiv:1501.02876v2.非专利文献2:C.M.Bishop,"NeuralNetworksforPatternRecognition",p267-268,ClarendonPress(1996).非专利文献3:Y.Nesterov,"Amethodforunconstrainedconvexminimizationproblemwiththerateofconvergenceo(1/k2)".DokladyANSSSR(translatedasSovie ...
【技术保护点】
1.一种学习系统,具有多个微分值计算部与参数更新部,对神经网络用参数进行更新,其中,所述多个微分值计算部互不进行同步地执行下列动作:从所述参数更新部接收某个时间点的参数;根据所接收到的参数计算出用于更新所述参数的微分值;以及将所述微分值发送给所述参数更新部,所述参数更新部执行下列动作:从所述微分值计算部接收所述微分值;与所述多个微分值计算部的微分值计算不进行同步地根据所接收到的所述微分值更新所述参数;以及将更新后的所述参数发送给所述多个微分值计算部,所述微分值计算部在计算所述微分值时,考虑与更新次数对应的过时而计算所述微分值,所述更新次数为从所述参数的接收时间点开始到所计算的微分值被所述参数更新部用来更新所述参数为止的期间内,所述参数被更新的次数。
【技术特征摘要】
2016.12.27 JP 2016-2531691.一种学习系统,具有多个微分值计算部与参数更新部,对神经网络用参数进行更新,其中,所述多个微分值计算部互不进行同步地执行下列动作:从所述参数更新部接收某个时间点的参数;根据所接收到的参数计算出用于更新所述参数的微分值;以及将所述微分值发送给所述参数更新部,所述参数更新部执行下列动作:从所述微分值计算部接收所述微分值;与所述多个微分值计算部的微分值计算不进行同步地根据所接收到的所述微分值更新所述参数;以及将更新后的所述参数发送给所述多个微分值计算部,所述微分值计算部在计算所述微分值时,考虑与更新次数对应的过时而计算所述微分值,所述更新次数为从所述参数的接收时间点开始到所计算的微分值被所述参数更新部用来更新所述参数为止的期间内,所述参数被更新的次数。2.根据权利要求1所述的学习系统,其中,所述微分值计算部考虑所述过时,计算出在所计算的微分值被所述参数更新部用来更新所述参数时的参数的预测值,对该预测值进行微分而计算出所述微分值。3.根据权利要求2所述的学习系统,其中,所述微分值计算部根据所述某个时间点的参数、所述某个时间点之前的时间点的参数、及所述过时,计算出所述预测值。4.根据权利要求3所述的学习系统,其中,设所述某个时间点τ的参数为W(τ),所述某...
【专利技术属性】
技术研发人员:佐藤育郎,藤崎亮,野村哲弘,大山洋介,松冈聪,
申请(专利权)人:电装IT研究所,国立大学法人东京工业大学,
类型:发明
国别省市:日本,JP
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。