【技术实现步骤摘要】
一种分布式深度学习参数量化通信优化方法及系统
本专利技术属于深度学习
,更具体地,涉及一种基于离散余弦变换的分布式深度学习参数量化通信优化方法及系统。
技术介绍
深度神经网络(DeepNeuralNetwork,DNN)是由一个输入层、多个隐藏层及一个输出层组成的一种人工神经网络(ArtificialNeuralNetwork,ANN),每一层由多个神经元节点组成,前层和后层的神经元节点间相互连接,每一个连接对应一个权重参数。如图1所示,layer1表示输入层,layer4表示输出层,layer2和layer3表示隐层,神经元之间的连接均对应一个权重参数其中,l表示第l层,j表示l前一层的第j个神经元,k表示l层的第k个神经元。l层的全部神经元的权重参数组成该层的权重矩阵。同时,l层的每个神经元有一个偏置项权重矩阵和偏置矩阵构成l层神经元的参数。在神经网络模型中,产生这类权重矩阵的主要是全连接层(Full-ConnectedLayer)以及卷积层(ConvolutionLayer),图1中表示的是全连接层。卷积层的神经元连接数较全连接层相对更少。模型超参数(hyperparameters)是深度学习中必需的框架参数,是模型外部的配置,其值不能从数据估计得到,所以通常由实践者直接指定。常用的超参数有训练迭代次数、学习率、初始化等。这些超参数由实践者在训练开始前设置,实践者可以通过启发式方法来设置。深度神经网络通常采用误差逆传播(BackPropagation,BP)算法训练模型。正向传播时,输入样本data从输入层进入网络,经隐层逐层传递至输出层。反向 ...
【技术保护点】
1.一种基于离散余弦变换的分布式深度学习参数量化通信优化方法,其特征在于,包括:(1)工作节点将分布式深度学习中的梯度值划分为若干个第一方阵,对于每个所述第一方阵,分别执行基于图形处理器的离散余弦变换并行计算并量化,得到若干个已量化方阵,其中,所述分布式深度学习中的梯度值包括权重梯度和偏置项梯度;(2)所述工作节点将量化后的方阵向参数服务器推送,以由所述参数服务器在接收到所述量化后的方阵后,根据所述量化后的方阵更新分布式深度学习中的权重和偏置项;(3)所述工作节点从所述参数服务器中拉取更新后的权重及偏置项,并将更新后权重划分为若干个第二方阵,将更新后的偏置项划分为若干个第三方阵,对于每个所述第二方阵及每个所述第三方阵,分别执行基于图形处理器的反量化和离散余弦反变换并行计算,得到目标权重及目标偏置项,用所述目标权重及所述目标偏置项分别更新所述工作节点的本地权重及本地偏置项。
【技术特征摘要】
1.一种基于离散余弦变换的分布式深度学习参数量化通信优化方法,其特征在于,包括:(1)工作节点将分布式深度学习中的梯度值划分为若干个第一方阵,对于每个所述第一方阵,分别执行基于图形处理器的离散余弦变换并行计算并量化,得到若干个已量化方阵,其中,所述分布式深度学习中的梯度值包括权重梯度和偏置项梯度;(2)所述工作节点将量化后的方阵向参数服务器推送,以由所述参数服务器在接收到所述量化后的方阵后,根据所述量化后的方阵更新分布式深度学习中的权重和偏置项;(3)所述工作节点从所述参数服务器中拉取更新后的权重及偏置项,并将更新后权重划分为若干个第二方阵,将更新后的偏置项划分为若干个第三方阵,对于每个所述第二方阵及每个所述第三方阵,分别执行基于图形处理器的反量化和离散余弦反变换并行计算,得到目标权重及目标偏置项,用所述目标权重及所述目标偏置项分别更新所述工作节点的本地权重及本地偏置项。2.根据权利要求1所述的方法,其特征在于,在步骤(1)中,所述将分布式深度学习中的梯度值划分为若干个第一方阵,包括:根据分布式深度学习中的梯度值包含的浮点数个数Num,将梯度值划分为包括Num/(n*n)个大小为n*n的第一方阵Gk(0≤k<Num/(n*n)),剩余的无法组成一个方阵的Num%(n*n)个浮点数记为G′,其中,/表示相除取整,G下标k表示划分后的方阵的索引,%表示相除取余数。3.根据权利要求2所述的方法,其特征在于,在步骤(1)中,所述对于每个所述第一方阵,分别执行基于图形处理器的离散余弦变换并行计算并量化,得到若干个已量化方阵,包括:根据所述第一方阵的个数Num/(n*n),设置基于图形处理器的并行程序计算中线程的个数thread_num=Num/(n*n),其中,每一个线程负责一个第一方阵的离散余弦变换,且thread_num个第一方阵的离散余弦变换操作并行执行,得到thread_num个已完成离散余弦变换的方阵其中,下标k表示方阵的索引,上标DCT表示是已完成离散余弦变换方阵。4.根据权利要求3所述的方法,其特征在于,步骤(2)包括:(2.1)若iter%interval≠0且iter≠iteration,则对每一个已完成离散余弦变换的方阵将反对角线上以及反对角线左上角的部分记为Sendk,将所有Sendk以及G′合并后记为Send,将反对角线右下角的部分记为Residualk,所有Residualk合并记为Residual,保留在所述工作节点的本地缓冲器中,将Send向参数服务器推送,以由所述参数服务器在接收到所述量化后的方阵后,根据所述量化后的方阵更新分布式深度学习中的权重得到已量化权重WDCT及已量化偏置项biasDCT,其中,Sendk为Residualk为iter为当前迭代次数,interval为迭代间隔,iteration为训练的最大迭代次数;(2.2)若iter%interval=0或者iter=iterati...
【专利技术属性】
技术研发人员:蒋文斌,金海,祝简,马阳,刘博,彭晶,刘湃,
申请(专利权)人:华中科技大学,
类型:发明
国别省市:湖北,42
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。