The embodiment of the invention provides a data processing method based on the neural network. The method includes: obtaining a set of features including at least data set training feature data sample S, feature data and target variable feature data set comprises at least two feature information corresponding to the N model; determine the final weights of a hidden node through the feature data and target variables corresponding to each feature information in S; according to n the hidden layer nodes model final weights and feature information in S, determine the characteristics of any kind of data into S in a group of characteristic information corresponding to the neural network model, the mean square error between the target probability Y to get the corresponding target variable value or logarithmic loss function value is less than a predetermined value, namely the target nerve network model. By prioritizing the initialization weights of hidden nodes, we can reduce the time of initialization weights of recurrent random assignment, and improve the training efficiency of neural network models. In addition, the embodiment of the invention provides a medium, a device and a computing device.
【技术实现步骤摘要】
基于神经网络的数据处理方法、介质、装置和计算设备
本专利技术的实施方式涉及计算机领域,更具体地,本专利技术的实施方式涉及一种基于神经网络的数据处理方法、介质、装置和计算设备。
技术介绍
本部分旨在为权利要求书中陈述的本专利技术的实施方式提供背景或上下文。此处的描述不因为包括在本部分中就承认是现有技术。BP(BackPropagation,反向传递)神经网络是目前应用较为广泛的神经网络之一,是一种按误差逆传播算法训练的多层前馈网络。BP神经网络能学习和存贮大量的输入-输出模式映射关系,而无需事前揭示描述这种映射关系的数学方程。它的学习规则是使用梯度下降法,通过反向传播来不断调整网络的权值和阈值,使网络的误差平方和最小。BP神经网络模型拓扑结构包括输入层(inputlayer)、隐层(hiddenlayer)和输出层(outputlayer)。如图1所示。BP神经网络学习训练是一种误差反传误差反向传播算法的学习过程,由信息的正向传播和误差的反向传播两个过程组成。输入层各神经元负责接收来自外界的输入信息,并传递给中间层各神经元;中间层是内部信息处理层,负责信息变换,根据信息变化能力的需求,中间层可以设计为单隐层或者多隐层结构;最后一个隐层传递到输出层各神经元的信息,经进一步处理后,完成一次学习的正向传播处理过程,由输出层向外界输出信息处理结果。当实际输出与期望输出不符时,进入误差的反向传播阶段。误差通过输出层,使用梯度下降法修正各层权值,向隐层、输入层逐层反传。周而复始的信息正向传播和误差反向传播过程,是各层权值不断调整的过程,此过程一直进行到网络输出的误差减少 ...
【技术保护点】
一种基于神经网络的数据处理方法,包括:获取训练特征数据样本S,所述S包括至少一组特征数据组,所述特征数据组包括至少两个特征信息对应的特征数据和目标变量;通过所述S中的每组特征信息对应的特征数据和目标变量确定n个隐层节点的模型最终权值,所述n为大于1的整数,所述n个隐层节点的模型最终权值为n个隐层节点的初始化权值通过反向传递Back Propagation算法得到的系数值;根据所述n个隐层节点的模型最终权值以及所述S中的特征信息,确定目标神经网络模型,所述目标神经网络模型为代入所述S中的任意一组特征信息对应的特征数据时,得到的目标概率Y与其对应的目标变量之间的均方误差值或对数损失函数值小于预定值的神经网络模型。
【技术特征摘要】
1.一种基于神经网络的数据处理方法,包括:获取训练特征数据样本S,所述S包括至少一组特征数据组,所述特征数据组包括至少两个特征信息对应的特征数据和目标变量;通过所述S中的每组特征信息对应的特征数据和目标变量确定n个隐层节点的模型最终权值,所述n为大于1的整数,所述n个隐层节点的模型最终权值为n个隐层节点的初始化权值通过反向传递BackPropagation算法得到的系数值;根据所述n个隐层节点的模型最终权值以及所述S中的特征信息,确定目标神经网络模型,所述目标神经网络模型为代入所述S中的任意一组特征信息对应的特征数据时,得到的目标概率Y与其对应的目标变量之间的均方误差值或对数损失函数值小于预定值的神经网络模型。2.根据权利要求1所述的基于神经网络的数据处理方法,其特征在于,所述方法还包括:设定预定概率YP;通过线性回归方式和所述预定概率YP在所述S中选取子样本,在所述子样本上通过所述子样本的特征数据和目标变量得到线性回归系数,将所述线性回归系数作为所述n个隐层节点的初始化权值。3.根据权利要求2所述的基于神经网络的数据处理方法,其特征在于,所述通过线性回归方式和所述预定概率在所述S中选取子样本,在所述子样本上通过所述子样本的特征数据和目标变量得到线性回归系数,将所述线性回归系数作为所述n个隐层节点的初始化权值,包括:根据所述S中的每组特征信息对应的特征数据和目标变量,确定第一Logistic回归模型LM1,和所述第一Logistic回归模型系数W1;使用所述LM1计算所述S中的每组特征数据对应的目标概率,提取目标概率小于等于所述YP的特征数据组作为训练特征数据样本S1,S1∈S;根据所述S1中的每组特征信息对应的特征数据和目标变量,确定第二Logistic回归模型LM2,和所述第二Logistic回归模型系数W2;使用所述W1和W2作为2个隐层节点的初始权值,确定第一神经网络模型NNet(h1,h2);使用所述NNet(h1,h2)计算所述S的每组特征数据对应的目标概率,提取目标概率小于所述YP的特征数据组作为训练特征数据样本S2,S2∈S;根据所述S2中的每组特征信息对应的特征数据和目标变量,确定第三Logistic回归模型LM3,和所述第三Logistic回归模型系数W3;使用所述NNet(h1,h2)的W′1、W′2和所述W3作为3个隐层节点的初始权值,确定第二神经网络模型NNet(h1,h2,h3),所述W′1是所述W1通过反向传递BackPropagation算法得到的系数值,所述W′2是所述W2通过反向传递BackPropagation算法得到的系数值;使用所述NNet(h1,h2,h3)计算所述S的每组特征数据对应的目标概率,提取目标概率小于所述YP的特征数据组作为训练特征数据样本S3,S3∈S;以此类推,直到得到的第n神经网络模型NNet(h1,h2,h3,……,hn)计算训练特征数据样本Sn的目标概率与所述预定概率之间的差值小于等于预定值时,确定所述W′1、W′2、W′3、……、W′n-1、Wn作为所述n个隐层节点的初始权值,所述Wn为第nLogistic回归模型LMn对应的第nLogistic回归模型系数Wn。4....
【专利技术属性】
技术研发人员:曹晓波,
申请(专利权)人:杭州朗和科技有限公司,
类型:发明
国别省市:浙江,33
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。