当前位置: 首页 > 专利查询>武汉大学专利>正文

一种动态认知神经网络及实现方法技术

技术编号:3753335 阅读:188 留言:0更新日期:2012-04-11 18:40
一种动态认知神经网络及实现方法,它由输入层、隐层、结构层、记忆层和输出层构成。该认知神经网络具有比例、积分、微分动态特性,用于对系统进行辨识时将加快收敛速度,使所述神经网络更好地跟踪被辨识系统。用于控制时其实质上相当于一个变结构变参数的PID控制器。当隐层节点数为r时,其相当于r个变结构变参数的PID控制器的输出叠加,即r个变结构变参数的PID控制器并联,此时,只改变权值系数w3,则相当于专家智能控制或模糊智能控制在r条控制控制规则中进行选择或组合。与其它神经网络最大的不同,所述新的神经网络的权值具有物理意义,初值选择可以根据人们对物理过程的理解进行,从而可避免在训练初期可能使被控系统不稳定及造成的扰动。(*该技术在2022年保护过期,可自由使用*)

【技术实现步骤摘要】

本专利技术属于认知科学与控制
,特别是涉及一种局部递归动态认知神经网络及实现方法。在神经网络控制中,有时需要对被控系统进行建模,但现在大量使用的多层前馈网络是一种静态网络,用它来对动态系统进行辨识,实际是将动态时间建模问题变为一个静态空间建模问题,这就必然出现诸多问题。同样,用静态网络进行控制,则需要构造控制器所需要的系统的动态信息,如单神经元PID控制中控制误差的比例、积分与微分值。相比之下,动态递归网络提供了一种极具潜力的选择,代表了神经网络建模、辨识与控制的发展方向。与前馈神经网络分为全局与局部逼近网络类似,动态递归神经网络也可分为完全递归与部分递归网络。完全递归网络具有任意的前馈与反馈连接,且所有连接权都可进行修正。而在部分递归网络中,主要的网络结构是前馈,其连接权可以修正;反馈连接由一组所谓“结构”(Context)单元构成,其连接权不可以修正。通过分析可以证明典型的Elman动态网络仅具有积分特性,改进Elman网络则具有比例积分特性。而对大脑神经系统的研究发现,人脑神经元的突触后电压(EPSP)与受刺激的强度有关,即具有比例作用,同时,EPSP会产生空间总和,即与刺激的积累效应有关,即具有积分作用,EPSP会产生时间总和,即与所受刺激的间隔时间长短有关,即具有微分作用。本专利技术提供的技术方案是一种动态认知神经网络,包括输入层、输出层、隐层、结构层,其特征在于设有记忆层,记忆层从结构层通过延迟获取信息,其输出作用于隐层;结构层从隐层通过延迟获取信息,其输出作用于隐层;隐层同时从输入层和结构层及记忆层获取信息,其输出作用于输出层;输出层则从隐层获取信息。按本专利技术,上述记忆层分别作用于隐层和输出层,输出层则同时从隐层和记忆层获取信息。或者,上述结构层分别作用于隐层和输出层,输出层则同时从隐层和结构层获取信息。或者,上述记忆层分别作用于隐层和输出层,结构层分别作用于隐层和输出层,输出层同时从隐层和结构层及记忆层获取信息。或者,结构层从隐层和自身通过延迟获取信息,即结构层带自反馈作用。或者,记忆层从结构层和自身通过延迟获取信息,即记忆层带自反馈作用。或者,结构层从隐层和自身通过延迟获取信息,记忆层从结构和自身通过延迟获取信息,即记忆层和结构层均带自反馈作用。本专利技术还提供了上述动态认知神经网络的实现方法,采取的措施和步骤如下(1)输入信号经输入层转换为网络可接受的输入信息u;(2)输入层的输出信息u通过作用系数w2,结构层的输出信息c通过作用系数w1,记忆层的输出信息b通过作用系数w6,分别作用于隐层的输入,上述信息经综合后,通过非线性作用函数产生隐层的输出x;若有m个输入信息,隐层节点个数为r个,则隐层输出可表示为xj(k)=f(Σi=1mw2i,jui(k)+Σi=1rw1i,jci(k)+Σi=1rw6i,jbi(k))j=1···r]]>(3)隐层的输出信息经单位时间延迟后作用于结构层,并与结构层前一个时步的信号进行综合产生结构层的输出c,结构层的自反馈系数为α;即有ci(k)=xi(k-1)+α×ci(k-1)i=1…r(4)结构层的输出信息经单位时间延迟后作用于记忆层,并与记忆层前一个时步的信号进行综合产生记忆层的输出b,记忆层的自反馈系数为β。即有bi(k)=ci(k-1)+β×bi(k-1)i=1…r(5)隐层的输出信息x通过作用系数w3,结构层的输出信息c通过作用系数w4,记忆层的输出信息b通过作用系数w5,分别作用于输出层的输入,上述信息经综合后,通过非线性作用函数产生输出层的输出y;若隐层节点个数为r个,输出层个数为n个,则输出层的输出(即网络的输出)可表示为yj(k)=g(Σi=1r(w3i,jxi(k)+w4i,jci(k)+w5i,jbi(k))j=1···n]]>根据实施的步骤和方法,可以构建所需动态认知神经网络。从系统的观点看,新的动态神经网络由两种网络构成,一种是前馈环,它由输入层、隐层、结构层、记忆层和输出层组成。另一种是反馈层,它由隐层、结构层和记忆层组成。前馈神经网络仅仅只利用了系统的静态信息,而新型神经网络在利用系统静态信息的同时,由于内部的存储能力,还能利用系统的动态信息。与一般的记忆神经网络不同,它并不需要对网络所有层的信息进行记忆,仅对隐层的信息进行记忆。同时,记忆信息反传回隐层,特别是通过两层记忆与双环反馈,将更进一步增强该网络的动态性能。当考虑单输入单输出只有一个隐层的最简单系统时,即r,m,n均为1时,输入输出的差分方程如下y(k)=w3×x(k)+w4×c(k)+w5×b(k)x(k)=w2×u(k)+w1×c(k)+w6×b(k)c(k)=x(k-1)+α×c(k-1)b(k)=c(k-1)+β×b(k-1)取Z变换,有y(z)=w3×x(z)+w4×c(z)+w5×b(z)x(z)=w2×u(z)+w1×c(z)+w6×b(z)zc(z)=x(z)+α×c(z)zb(z)=c(z)+β×b(z)推导得G(z)=y(z)u(z)=w2×w3(z-α)(z-β)+w2×w4(z-β)+w2×w5(z-α)(z-β)-w1(z-β)-w6]]>求上式的反z变换,得y(k)=(α+β+w1)y(k-1)-(αβ+βw1-w6)y(k-2)+w2×w3×u(k)-w2u(k-1)+w2(αβw3+w5-w4β)u(k-2)带实际微分的离散PID算法为u(k)=2T+ΔTT+ΔTu(k-1)-TT+ΔTu(k-2)+(KP+KIT)ΔT+KD+KPT+KIΔT2T+ΔTe(k)]]>-(KP+KIT)ΔT+2KD+2KPTT+ΔTe(k-1)+KD+KPTT+ΔTe(k-2)]]>式中KP,KI,KD分别为比例,积分和微分系数。两者比较,有α+β+w1=2T+ΔTT+ΔT]]>αβ+βw1-w6=TT+ΔT]]>w2×w3=(KP+KIT)ΔT+KD+KPT+KIΔT2T+ΔT]]>w2=(KP+KIT)ΔT+2KD+2KPTT+ΔT]]>w2(αβw3+w5-w4&bet本文档来自技高网...

【技术保护点】
一种动态认知神经网络,包括输入层、输出层、隐层、结构层,其特征在于:设有记忆层,记忆层从结构层通过延迟获取信息,其输出作用于隐层;结构层从隐层通过延迟获取信息,其输出作用于隐层;隐层同时从输入层和结构层及记忆层获取信息,其输出作用于输出层;输出层则从隐层获取信息。

【技术特征摘要】

【专利技术属性】
技术研发人员:程远楚
申请(专利权)人:武汉大学
类型:发明
国别省市:83[中国|武汉]

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1