当前位置: 首页 > 专利查询>浙江大学专利>正文

一种基于稀疏深度神经网络的工业数据非线性因果分析方法技术

技术编号:20483040 阅读:27 留言:0更新日期:2019-03-02 18:15
本发明专利技术公开了一种基于稀疏深度神经网络的工业数据非线性因果分析方法,包括以下步骤:(1)采集待检测工业过程中全部控制回路的过程输出信号;(2)选取一个过程输出信号作为输出变量,全部变量的各阶滞后作为输入变量,构建稀疏深度神经网络;(3)通过依次删减输入变量,逐个完成格兰杰因果检验,得到此过程输出信号的全部格兰杰原因;(4)重复步骤(2)和(3),得到全部过程输出信号间的因果关系;(5)综合全部过程输出信号间的因果关系,定位故障源位置及故障传播路径。利用本发明专利技术,可以对工业过程的控制回路信号进行非线性因果分析,完成故障源的定位及故障传播路径的分析。

【技术实现步骤摘要】
一种基于稀疏深度神经网络的工业数据非线性因果分析方法
本专利技术属于工业控制系统中的故障诊断领域,尤其是涉及一种基于稀疏深度神经网络的工业数据非线性因果分析方法。
技术介绍
现代工业过程由成百上千个高度耦合的控制回路组成,其过程设备具有规模大、变量多、综合度高且长时间运行在闭环控制下等特点。因而,各个回路的实际控制性能与工业生产的质量、能耗以及操作的安全性息息相关,也是实现上层优化、调度和管理的基础。然而,由于控制回路中控制器的过整定、过程的非线性、阀门粘滞、外部扰动和模型失配等原因,只有三分之一的回路在实际操作中控制性能满足要求,其余三分之二的回路出现不同程度的控制性能问题。因而,对工业控制回路进行因果分析,对工业过程的故障诊断和控制性能的提升具有重要意义。但是在典型的工业过程中,回路变量数目众多,若采用普通的非稀疏的因果分析方法,计算过程将十分复杂、计算结果也不够直观简洁,最终的应用效果和价值有限。而在实际过程中,存在直接或者强烈因果关系的变量只占总变量的小部分,同时只有部分变量是因果关系中关键变量。因而,对工业控制回路,采用稀疏因果分析的研究方法,实现对回路的关键因果关系的检测,可以达到高效、简洁、精准的目的。若想通过对复杂工业过程的建模实现因果分析,需要知道完整的工艺流程、过程结构等基础知识,因此存在一定的难度。所以在实际应用中,还可以基于工业过程的数据实现因果分析。根据原理不同,可将已提出的基于数据的因果分析方法大致分为三类:基于时滞关系的格兰杰因果分析、基于统计概率的条件概率因果分析以及基于因果信息不对称性的因果分析。格兰杰因果关系最早由格兰杰提出并命名,是最经典也是最常用的因果分析概念。在时间序列情形下,两个变量X、Y之间的格兰杰因果关系定义为:若在包含了变量X、Y的过去信息的条件下,对变量Y的预测效果要优于只单独由Y的过去信息对Y进行的预测效果,即变量X有助于解释变量Y的将来变化,则认为变量X是变量Y的格兰杰原因。传统的格兰杰因果分析需要对模型进行回归,这导致此分析方法依旧存在要求假设X与Y间为线性关系、变量间两两配对检验算法整体效率较低、模型的准确度(特别是模型的阶次)对结果存在影响等问题。
技术实现思路
本专利技术提供了一种基于稀疏深度神经网络的工业数据非线性因果分析方法,克服了传统格兰杰因果分析的计算效率低、只能检测线性因果关系的缺点,可以完成非线性因果关系的检验,且只需获取常规运行数据,无需过程机理知识。一种基于稀疏深度神经网络的工业数据非线性因果分析方法,包括以下步骤:(1)采集待检测工业过程中全部控制回路的过程输出信号;(2)选取一个过程输出信号作为输出变量,全部变量的各阶滞后作为输入变量,构建稀疏深度神经网络;(3)通过依次删减输入变量,逐个完成格兰杰因果检验,得到此过程输出信号的全部格兰杰原因;(4)重复步骤(2)和(3),得到全部过程输出信号间的因果关系;(5)综合全部过程输出信号间的因果关系,定位故障源位置及故障传播路径。本专利技术利用深度神经网络训练代替线性回归,可以检验出非线性因果关系,并加入分层组稀疏的约束,减少不必要的格兰杰因果检验次数,并实现滞后阶次的自动选择。通过本专利技术的方法,可以对工业过程的控制回路信号进行非线性因果分析,完成故障源的定位及故障传播路径的分析。步骤(2)中,构建稀疏深度神经网络的过程为:(2-1)选取一个过程输出信号Xi(t)作为输出变量,全部变量的各阶滞后X1(t-1),X1(t-2),…,X1(t-K),…,Xp(t-1),Xp(t-2),…,Xp(t-K)作为输入变量,取前3/4时间的数据作为训练集,后1/4时间的数据作为测试集,设计包含三个隐层的全连接神经网络,选取ReLU激活函数;其中,i=1,2,…,p,表示待分析的变量的编号;K表示滞后阶次,p表示变量个数;(2-2)定义该神经网络的损失函数,在均方误差的基础上添加损失函数为:其中,T表示总时间长度,xit表示第i个变量的当前值信号序列,x(t-1):(t-K)表示全部变量的第1至第K阶滞后信号构成的信号矩阵,W表示神经网络的权重系数矩阵,表示输入层由第j组神经元中的第k个至第一隐层每一个神经元的权重系数,‖·‖F表示矩阵的Frobenius范数;(2-3)选取神经网络的反向传播优化算法为近端梯度法,具体公式为:可以通过以下算法迭代得到:1)2)对于h=1,…,H,更新rgh←(1-λ/||rgh||2)+rgh;3)返回迭代结果r作为最优解其中,代表迭代时参数目标值,为通过迭代得到的使得该目标函数最小的x作为迭代结果,λ为参数范围的阈值,r存储迭代结果,xgh为经过第h次迭代得到的结果。(2-4)生成会话,在训练集上反复运行反向传播优化算法,不断优化模型各层间的权重系数得到在训练集上损失函数最小的模型参数,计算其在测试集上的全均方误差。步骤(3)的具体过程为:(3-1)找出可能为输出变量的格兰杰原因的全部输入变量;(3-2)轮流从找到的全部输入变量的各阶滞后中成组地删去每个变量的各阶滞后Xir(t-1),Xir(t-2),…,Xir(t-K),r=1,2,…,ni,将其余的信号作为输入变量,取前3/4时间的数据作为训练集,后1/4时间的数据作为测试集,设计包含三个隐层的全连接神经网络,选取ReLU激活函数;(3-3)选取均方差作为该神经网络的损失函数,具体公式为:其中,T表示总时间长度,xit表示第i个变量的当前值信号序列,x(t-1):(t-K)表示全部变量的第1至第K阶滞后信号构成的信号矩阵,W表示神经网络的权重系数矩阵;(3-4)选取神经网络的反向传播优化算法为随机梯度下降法;(3-5)生成会话,在训练集上反复运行反向传播优化算法,不断优化模型各层间的权重系数得到在训练集上损失函数最小的模型参数,计算其在测试集上的限制均方误差;(3-6)利用步骤(3-5)得到的限制均方误差与步骤(2-4)得到的全均方误差,在格兰杰因果检验的框架下判定两个信号是否具有因果关系,具体方式为:认为均方误差遵循自由度为q和(n-k)的F分布,其中,n是样本容量,q等于滞后项x的个数,即有约束回归中待估参数的个数,k是无约束回归中待估参数的个数;如果在选定的显著性水平α上计算的F值超过临界值Fα,则拒绝零假设,认为测试的可能为原因的输入变量是待分析输出变量的原因。显著性水平α是一个(0,1)区间的可变参数,默认值为0.05。步骤(3-1)的具体步骤为:找出输入层至第一隐层的权重系数均非0的神经元组对应的全部输入变量,若不存在这样的输入变量或仅有待分析的输出变量自身,则认为此待分析的输出变量不存在其它信号是它的格兰杰原因,直接结束步骤(3);若找到的输入变量只有1个且不为带分析的输出变量自身,则认为找到的这个输入变量就是待分析的输出变量的格兰杰原因,直接结束步骤(3);若找到的输入变量有多个,即为输出变量的格兰杰原因的全部输入变量。步骤(3-6)中,所述格兰杰因果检验的框架为:零假设H0:测试的输入变量的各阶滞后信号的输入层权重系数均为0,不能判断它是待分析输出变量的格兰杰原因;备择假设H1:测试的输入变量的各阶滞后信号的输入层权重系数不均为0,认为它是待分析输出变量的格兰杰原因。步骤(5)的具本文档来自技高网
...

【技术保护点】
1.一种基于稀疏深度神经网络的工业数据非线性因果分析方法,其特征在于,包括以下步骤:(1)采集待检测工业过程中全部控制回路的过程输出信号;(2)选取一个过程输出信号作为输出变量,全部变量的各阶滞后作为输入变量,构建稀疏深度神经网络;(3)通过依次删减输入变量,逐个完成格兰杰因果检验,得到此过程输出信号的全部格兰杰原因;(4)重复步骤(2)和(3),得到全部过程输出信号间的因果关系;(5)综合全部过程输出信号间的因果关系,定位故障源位置及故障传播路径。

【技术特征摘要】
1.一种基于稀疏深度神经网络的工业数据非线性因果分析方法,其特征在于,包括以下步骤:(1)采集待检测工业过程中全部控制回路的过程输出信号;(2)选取一个过程输出信号作为输出变量,全部变量的各阶滞后作为输入变量,构建稀疏深度神经网络;(3)通过依次删减输入变量,逐个完成格兰杰因果检验,得到此过程输出信号的全部格兰杰原因;(4)重复步骤(2)和(3),得到全部过程输出信号间的因果关系;(5)综合全部过程输出信号间的因果关系,定位故障源位置及故障传播路径。2.根据权利要求1所述的基于稀疏深度神经网络的工业数据非线性因果分析方法,其特征在于,步骤(2)中,构建稀疏深度神经网络的过程为:(2-1)选取一个过程输出信号Xi(t)作为输出变量,全部变量的各阶滞后X1(t-1),X1(t-2),…,X1(t-K),…,Xp(t-1),Xp(t-2),…,Xp(t-K)作为输入变量,取前3/4时间的数据作为训练集,后1/4时间的数据作为测试集,设计包含三个隐层的全连接神经网络,选取ReLU激活函数;其中,i=1,2,…,p,表示待分析的变量的编号;K表示滞后阶次,p表示变量个数;(2-2)定义该神经网络的损失函数,在均方误差的基础上添加损失函数为:其中,T表示总时间长度,xit表示第i个变量的当前值信号序列,x(t-1):(t-K)表示全部变量的第1至第K阶滞后信号构成的信号矩阵,W表示神经网络的权重系数矩阵,表示输入层由第j组神经元中的第k个至第一隐层每一个神经元的权重系数,‖·‖F表示矩阵的Frobenius范数;(2-3)选取神经网络的反向传播优化算法为近端梯度法,具体公式为:其中,代表参数目标值,为通过迭代得到的使得该目标函数最小的x作为迭代结果,λ为参数范围的阈值,xgh为经过第h次迭代得到的结果;(2-4)生成会话,在训练集上反复运行反向传播优化算法,不断优化模型各层间的权重系数得到在训练集上损失函数最小的模型参数,计算其在测试集上的全均方误差。3.根据权利要求2所述的基于稀疏深度神经网络的工业数据非线性因果分析方法,其特征在于,步骤(3)的具体过程为:(3-1)找出可能为输出变量的格兰杰原因的全部输入变量;(3-2)轮流从找到的全部输入变量的各阶滞后中成组地删去每个变量的各阶滞后Xir(t-1),Xir(t-2),…,Xir(t-K),r=1,2,…,ni,将其余的信号作为输入变量,取前3/4时间的数据作为训练集,后1/4时间的数据作为测试集,设计包含三个隐层的全连接神经网络,选取ReLU激活函数;(3-3)选取均方差作为该神经网络的损失函数,具体公式为:其中,T表示总时间长度,xit表示第i个变量的当前值信号序列,x(t...

【专利技术属性】
技术研发人员:谢磊乔丹苏宏业
申请(专利权)人:浙江大学
类型:发明
国别省市:浙江,33

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1