一种深度学习网络模型服务器的优化方法和装置制造方法及图纸

技术编号:20075999 阅读:39 留言:0更新日期:2019-01-15 00:54
本申请公开了一种深度学习网络模型服务器的优化方法和装置。该深度学习网络模型服务器的优化方法包括:确定服务器上预存的图像训练集的图像标签;将带有图像标签的所述图像训练集输入服务器,训练基于预训练模型初始化的神经网络得到目标神经网络;通过所述目标神经网络识别出服务器待测图像的类别属性;其中,所述神经网络中的残差单元在服务器上进行特征学习及提取时采用注意力机制。本申请解决了深度学习中存在的网络训练时收敛速度缓慢导致的服务器运行缓慢的技术问题。

An Optimized Method and Device for Deep Learning Network Model Server

This application discloses an optimization method and device for a deep learning network model server. The optimization method of the in-depth learning network model server includes: determining the image label of the image training set stored on the server; inputting the image training set with the image label into the server, training the neural network initialized based on the pre-training model to obtain the target neural network; identifying the category attributes of the image to be tested by the target neural network; and The residual unit of the neural network adopts the attention mechanism when learning and extracting features on the server. This application solves the technical problem that the slow convergence speed in network training leads to the slow running of the server in deep learning.

【技术实现步骤摘要】
一种深度学习网络模型服务器的优化方法和装置
本申请涉及深度学习服务器
,具体而言,涉及一种深度学习网络模型服务器的优化方法和装置。
技术介绍
深度学习是机器学习研究中的一个新的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,例如图像,声音和文本。深度机器学习方法也有监督学习与无监督学习之分.不同的学习框架下建立的学习模型很是不同.例如,卷积神经网络(Convolutionalneuralnetworks,简称CNNs)就是一种深度的监督学习下的机器学习模型,而深度置信网(DeepBeliefNets,简称DBNs)就是一种无监督学习下的机器学习模型。目前的深度学习网络模型服务器主要存在以下缺陷:收敛速度慢、计算复杂度较高导致计算速度缓慢。针对相关技术中深度学习网络模型服务器中存在的网络训练收敛速度缓慢导致的运行速度缓慢的问题,目前尚未提出有效的解决方案。
技术实现思路
本申请的主要目的在于提供一种深度学习网络模型服务器的优化方法和装置,深度学习网络模型服务器中存在的网络训练收敛速度缓慢导致的运行速度缓慢的技术问题。为了实现上述目的,根据本申请的一个本文档来自技高网...

【技术保护点】
1.一种深度学习网络模型服务器的优化方法,其特征在于,包括:确定服务器上预存的图像训练集的图像标签;将带有图像标签的所述图像训练集输入服务器上初始化神经网络训练后得到服务器上用于深度学习的目标神经网络;通过所述目标神经网络识别出向服务器发出的图像识别请求;其中,所述初始化神经网络中的残差单元在服务器上进行深度学习时采用注意力机制。

【技术特征摘要】
1.一种深度学习网络模型服务器的优化方法,其特征在于,包括:确定服务器上预存的图像训练集的图像标签;将带有图像标签的所述图像训练集输入服务器上初始化神经网络训练后得到服务器上用于深度学习的目标神经网络;通过所述目标神经网络识别出向服务器发出的图像识别请求;其中,所述初始化神经网络中的残差单元在服务器上进行深度学习时采用注意力机制。2.根据权利要求1所述的优化方法,其特征在于,所述初始化神经网络中的残差单元在服务器上进行深度学习时采用注意力机制包括:在池化层将所述图像特征均值池化为预设尺寸;在压缩层将所述图像特征按照预设比例压缩;在激励层输出处理后的图像特征。3.根据权利要求2所述的优化方法,其特征在于,所述激励层的输出通道数量与所述残差单元数量相同。4.根据权利要求1所述的优化方法,其特征在于,所述目标神经网络的最后一层网络采用编解码层。5.根据权利要求4所述的优化方法,其特征在于,所述编解码层包括:将所述目标神经网络的第一输出结果进行编码的编码层;以及将所述编码层的第二输出结果进行解码的解码层。6.根据权利要求1所述的优化方法,其特征在于,所述确定服务器上预存的图像训练集的...

【专利技术属性】
技术研发人员:王慧敏孙海涌张默
申请(专利权)人:北京陌上花科技有限公司
类型:发明
国别省市:北京,11

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1