基于神经网络的数据处理方法、介质、装置和计算设备制造方法及图纸

技术编号:16718403 阅读:49 留言:0更新日期:2017-12-05 16:39
本发明专利技术的实施方式提供了一种基于神经网络的数据处理方法。该方法包括:获取包括至少一组特征数据组的训练特征数据样本S,特征数据组包括至少两个特征信息对应的特征数据和目标变量;通过S中的每组特征信息对应的特征数据和目标变量确定n个隐层节点的模型最终权值;根据n个隐层节点的模型最终权值以及S中的特征信息,确定一种代入S中的任意一组特征信息对应的特征数据时,得到的目标概率Y与其对应的目标变量之间的均方误差值或对数损失函数值小于预定值的神经网络模型,即目标神经网络模型。通过优先确定隐层节点的初始化权值,从而减少反复随机赋值初始化权值的时间,从而提高神经网络模型的训练效率。此外,本发明专利技术的实施方式提供了一种介质、装置及计算设备。

Data processing methods, media, devices, and computing devices based on Neural Networks

The embodiment of the invention provides a data processing method based on the neural network. The method includes: obtaining a set of features including at least data set training feature data sample S, feature data and target variable feature data set comprises at least two feature information corresponding to the N model; determine the final weights of a hidden node through the feature data and target variables corresponding to each feature information in S; according to n the hidden layer nodes model final weights and feature information in S, determine the characteristics of any kind of data into S in a group of characteristic information corresponding to the neural network model, the mean square error between the target probability Y to get the corresponding target variable value or logarithmic loss function value is less than a predetermined value, namely the target nerve network model. By prioritizing the initialization weights of hidden nodes, we can reduce the time of initialization weights of recurrent random assignment, and improve the training efficiency of neural network models. In addition, the embodiment of the invention provides a medium, a device and a computing device.

【技术实现步骤摘要】
基于神经网络的数据处理方法、介质、装置和计算设备
本专利技术的实施方式涉及计算机领域,更具体地,本专利技术的实施方式涉及一种基于神经网络的数据处理方法、介质、装置和计算设备。
技术介绍
本部分旨在为权利要求书中陈述的本专利技术的实施方式提供背景或上下文。此处的描述不因为包括在本部分中就承认是现有技术。BP(BackPropagation,反向传递)神经网络是目前应用较为广泛的神经网络之一,是一种按误差逆传播算法训练的多层前馈网络。BP神经网络能学习和存贮大量的输入-输出模式映射关系,而无需事前揭示描述这种映射关系的数学方程。它的学习规则是使用梯度下降法,通过反向传播来不断调整网络的权值和阈值,使网络的误差平方和最小。BP神经网络模型拓扑结构包括输入层(inputlayer)、隐层(hiddenlayer)和输出层(outputlayer)。如图1所示。BP神经网络学习训练是一种误差反传误差反向传播算法的学习过程,由信息的正向传播和误差的反向传播两个过程组成。输入层各神经元负责接收来自外界的输入信息,并传递给中间层各神经元;中间层是内部信息处理层,负责信息变换,根据信息变化能力的需求,中间层可以设计为单隐层或者多隐层结构;最后一个隐层传递到输出层各神经元的信息,经进一步处理后,完成一次学习的正向传播处理过程,由输出层向外界输出信息处理结果。当实际输出与期望输出不符时,进入误差的反向传播阶段。误差通过输出层,使用梯度下降法修正各层权值,向隐层、输入层逐层反传。周而复始的信息正向传播和误差反向传播过程,是各层权值不断调整的过程,此过程一直进行到网络输出的误差减少到可以接受的程度,或者预先设定的学习次数为止。目前的BP神经网络训练方法通常是使用随机值初始化各隐层节点的权值,然后使用梯度下降法向隐层、输入层逐层反传来不断调整网络的权值,最终达到实际输出与期望输出相符或者相近。
技术实现思路
但是,出于为了达到实际输出与期望输出相符或者相近的原因,现有技术在特征数据(输入信息)较多,通过随机值初始化的方式进行误差反传误差反向传播算法的学习时,在正向传播的过程中需要较长时间进行大量随机数不断调整各层权值。因此在现有技术中,训练神经网络模型的效率较低这是非常令人烦恼的过程。为此,非常需要一种改进的基于神经网络的数据处理方法、介质、装置和计算设备,以解决训练神经网络模型效率较低的问题。在本上下文中,本专利技术的实施方式期望提供一种基于神经网络的数据处理方法、介质、装置以及计算设备。在本专利技术实施方式的第一方面中,提供了一种基于神经网络的数据处理方法,包括:获取训练特征数据样本S,所述S包括至少一组特征数据组,所述特征数据组包括至少两个特征信息对应的特征数据和目标变量;通过所述S中的每组特征信息对应的特征数据和目标变量确定n个隐层节点的模型最终权值,所述n为大于1的整数,所述n个隐层节点的模型最终权值为n个隐层节点的初始化权值通过反向传递BackPropagation算法得到的系数值;根据所述n个隐层节点的模型最终权值以及所述S中的特征信息,确定目标神经网络模型,所述目标神经网络模型为代入所述S中的任意一组特征信息对应的特征数据时,得到的目标概率Y与其对应的目标变量之间的均方误差值或对数损失函数值小于预定值的神经网络模型。在本专利技术的一个实施例中,所述还包括,包括:设定预定概率YP;通过线性回归方式和所述预定概率YP在所述S中选取子样本,在所述子样本上通过所述子样本的特征数据和目标变量得到线性回归系数,将所述线性回归系数作为所述n个隐层节点的初始化权值。在本专利技术的另一实施例中,所述通过线性回归方式和所述预定概率在所述S中选取子样本,在所述子样本上通过所述子样本的特征数据和目标变量得到线性回归系数,将所述线性回归系数作为所述n个隐层节点的初始化权值,包括:根据所述S中的每组特征信息对应的特征数据和目标变量,确定第一Logistic回归模型LM1,和所述第一Logistic回归模型系数W1;使用所述LM1计算所述S中的每组特征数据对应的目标概率,提取目标概率小于等于所述YP的特征数据组作为训练特征数据样本S1,S1∈S;根据所述S1中的每组特征信息对应的特征数据和目标变量,确定第二Logistic回归模型LM2,和所述第二Logistic回归模型系数W2;使用所述W1和W2作为2个隐层节点的初始权值,确定第一神经网络模型NNet(h1,h2);使用所述NNet(h1,h2)计算所述S的每组特征数据对应的目标概率,提取目标概率小于所述YP的特征数据组作为训练特征数据样本S2,S2∈S;根据所述S2中的每组特征信息对应的特征数据和目标变量,确定第三Logistic回归模型LM3,和所述第三Logistic回归模型系数W3;使用所述NNet(h1,h2)的W′1、W′2和所述W3作为3个隐层节点的初始权值,确定第二神经网络模型NNet(h1,h2,h3);使用所述NNet(h1,h2,h3)计算所述S的每组特征数据对应的目标概率,提取目标概率小于所述YP的特征数据组作为训练特征数据样本S3,S3∈S;以此类推,直到得到的第n神经网络模型NNet(h1,h2,h3,……,hn)计算训练特征数据样本Sn的目标概率与所述预定概率之间的差值小于等于预定值时,确定所述W′1、W′2、W′3、……、W′n-1、Wn作为所述n个隐层节点的初始权值,所述Wn为第nLogistic回归模型LMn对应的第nLogistic回归模型系数Wn。在本专利技术的又一个实施例中,所述根据所述n个隐层节点的初始化权值以及所述S中的特征信息,生成目标神经网络模型,包括:确定所述第n神经网络模型NNet(h1,h2,h3,……,hn)为所述目标神经网络模型。在本专利技术的再一个实施例中,在所述获取训练特征数据样本S之前,所述方法还包括:确定目标场景,所述目标场景为通过所述目标神经网络模型计算特征对象的匹配率的场景,所述特征对象为使用所述目标场景的对象;确定所述特征对象的标签属性,将所述特征对象的标签属性作为特征信息X;确定所述目标场景的标签属性,将所述目标场景的标签属性作为特征信息Y。在本专利技术的再一个实施例中,所述获取训练特征数据样本S,包括:获取至少一个特征对象针对所述目标场景进行的目标操作,所述目标操作为所述特征对象使用所述目标场景的操作;将所述目标操作量化为目标变量;获取每个特征对象包含的标签属性信息,将每个特征对象包含的标签属性信息量化为所述X对应的特征数据;获取所述目标场景包含的标签属性信息,将所述目标场景包含的标签属性信息量化为所述Y对应的特征数据,其中,一个特征对象对应一组特征数据组。在本专利技术的再一个实施例中,每组特征数据组包含的特征信息相同。在本专利技术实施方式的第二方面中,提供了一种介质,其上存储有程序,该程序被处理器执行时实现上述方法实施方式中的各步骤,例如,获取训练特征数据样本S,所述S包括至少一组特征数据组,所述特征数据组包括至少两个特征信息对应的特征数据和目标变量;通过所述S中的每组特征信息对应的特征数据和目标变量确定n个隐层节点的模型最终权值,所述n为大于1的整数,所述n个隐层节点的模型最终权值为n个隐层节点的初始化权值通过反向传递BackPropagatio本文档来自技高网
...
基于神经网络的数据处理方法、介质、装置和计算设备

【技术保护点】
一种基于神经网络的数据处理方法,包括:获取训练特征数据样本S,所述S包括至少一组特征数据组,所述特征数据组包括至少两个特征信息对应的特征数据和目标变量;通过所述S中的每组特征信息对应的特征数据和目标变量确定n个隐层节点的模型最终权值,所述n为大于1的整数,所述n个隐层节点的模型最终权值为n个隐层节点的初始化权值通过反向传递Back Propagation算法得到的系数值;根据所述n个隐层节点的模型最终权值以及所述S中的特征信息,确定目标神经网络模型,所述目标神经网络模型为代入所述S中的任意一组特征信息对应的特征数据时,得到的目标概率Y与其对应的目标变量之间的均方误差值或对数损失函数值小于预定值的神经网络模型。

【技术特征摘要】
1.一种基于神经网络的数据处理方法,包括:获取训练特征数据样本S,所述S包括至少一组特征数据组,所述特征数据组包括至少两个特征信息对应的特征数据和目标变量;通过所述S中的每组特征信息对应的特征数据和目标变量确定n个隐层节点的模型最终权值,所述n为大于1的整数,所述n个隐层节点的模型最终权值为n个隐层节点的初始化权值通过反向传递BackPropagation算法得到的系数值;根据所述n个隐层节点的模型最终权值以及所述S中的特征信息,确定目标神经网络模型,所述目标神经网络模型为代入所述S中的任意一组特征信息对应的特征数据时,得到的目标概率Y与其对应的目标变量之间的均方误差值或对数损失函数值小于预定值的神经网络模型。2.根据权利要求1所述的基于神经网络的数据处理方法,其特征在于,所述方法还包括:设定预定概率YP;通过线性回归方式和所述预定概率YP在所述S中选取子样本,在所述子样本上通过所述子样本的特征数据和目标变量得到线性回归系数,将所述线性回归系数作为所述n个隐层节点的初始化权值。3.根据权利要求2所述的基于神经网络的数据处理方法,其特征在于,所述通过线性回归方式和所述预定概率在所述S中选取子样本,在所述子样本上通过所述子样本的特征数据和目标变量得到线性回归系数,将所述线性回归系数作为所述n个隐层节点的初始化权值,包括:根据所述S中的每组特征信息对应的特征数据和目标变量,确定第一Logistic回归模型LM1,和所述第一Logistic回归模型系数W1;使用所述LM1计算所述S中的每组特征数据对应的目标概率,提取目标概率小于等于所述YP的特征数据组作为训练特征数据样本S1,S1∈S;根据所述S1中的每组特征信息对应的特征数据和目标变量,确定第二Logistic回归模型LM2,和所述第二Logistic回归模型系数W2;使用所述W1和W2作为2个隐层节点的初始权值,确定第一神经网络模型NNet(h1,h2);使用所述NNet(h1,h2)计算所述S的每组特征数据对应的目标概率,提取目标概率小于所述YP的特征数据组作为训练特征数据样本S2,S2∈S;根据所述S2中的每组特征信息对应的特征数据和目标变量,确定第三Logistic回归模型LM3,和所述第三Logistic回归模型系数W3;使用所述NNet(h1,h2)的W′1、W′2和所述W3作为3个隐层节点的初始权值,确定第二神经网络模型NNet(h1,h2,h3),所述W′1是所述W1通过反向传递BackPropagation算法得到的系数值,所述W′2是所述W2通过反向传递BackPropagation算法得到的系数值;使用所述NNet(h1,h2,h3)计算所述S的每组特征数据对应的目标概率,提取目标概率小于所述YP的特征数据组作为训练特征数据样本S3,S3∈S;以此类推,直到得到的第n神经网络模型NNet(h1,h2,h3,……,hn)计算训练特征数据样本Sn的目标概率与所述预定概率之间的差值小于等于预定值时,确定所述W′1、W′2、W′3、……、W′n-1、Wn作为所述n个隐层节点的初始权值,所述Wn为第nLogistic回归模型LMn对应的第nLogistic回归模型系数Wn。4....

【专利技术属性】
技术研发人员:曹晓波
申请(专利权)人:杭州朗和科技有限公司
类型:发明
国别省市:浙江,33

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1