【技术实现步骤摘要】
一种基于ELM和SVM的快速优化分类算法
本专利技术涉及人工智能
,尤其是一种基于ELM和SVM的快速优化分类算法。
技术介绍
在机器学习领域,模式分类问题是最为热门的议题之一,是解决模式识别应用问题的关键基础议题。自上世纪五、六十年代以来,围绕模式分类议题,研究结果众多,其中比较有代表性的基础学习算法有:感知机学习算法、BP学习算法、SVM学习算法,以及ELM学习算法等等。然而,相对于应用需求而言,目前的学习算法无论在学习效果还是学习效率方面都离满足应用需求仍有相当的距离。(1)超限学习机(ELM)是当下一种新兴的机器学习算法,随着人工智能的兴起,已成为当下的热门的学习算法。ELM是一种基于三层结构(分别为输入层、隐含层和输出层)的前馈网络模型的自适应学习算法,结构上与MLP(多层感知机)相似,但相比BP算法,ELM存在一些明显的优势,ELM中隐藏神经元输入权值和结点个数随机赋值且不参与迭代调整,仅仅通过学习来调整输出层的权值,达到训练网络的目的。根据ELM学习理论可知,给定任何可分类目标,只要前馈神经的隐层节点是非线性阶段连续的,神经网络无需调整隐层节点就能对分类目标加以分类。然而,ELM随机化隐含层,虽极大地减少了待求参数,进而大幅提高了学习速度,但为了获得合适的隐层节点数,存在欠学习或过学习现象的隐患,尤其是因过学习而出现的过拟合问题,会严重削弱目标网络的泛化性能。(2)支持向量机(SVM)是一基于小样本统计理论为基础,基于计算学习技术的有监督学习算法,有着完整而丰富的的理论基础。在应用领域,凭借良好的分类能力,SVM及其变体被广泛应用。SV ...
【技术保护点】
1.一种基于ELM和SVM的快速优化分类算法,其特征在于,包括如下步骤:(1)对给定样本集S={(Xa,Yc)|1≤a≤A,1≤c≤C},通过ELM算法训练一随机初始化的单隐层前向人工神经网络,确立一个ELM分类器;(2)通过已训练好的ELM分类器,能够分别计算出输入样本集Sinput={Xa|1≤a≤A}的所有对应的隐层输出SHindeOutput={Xb'|1≤b≤B}和网络输出SNetOutput={Yc|1≤c≤C},并由此将原样本集分拆成两个新样本集,即S=SHideLayer+SOutLayer,其中SHideLayer={(Xa,X′b)|1≤a≤A,1≤b≤B},SOutLayer={(X′b,Yc)|1≤b≤B,1≤c≤C},显然SHideLayer和SOutLayer是两个线性可分的样本集;(3)对于上述样本集SHideLayer和SOutLayer,分别使用线性SVM算法训练学习,可分别得到它们各自的最优解,即SVMHideLayer:Xa→X′b和SVMOutLayer:X′b→Yc;(4)合并连接SVMHideLayer:Xa→X′b和SVMOutLayer: ...
【技术特征摘要】
1.一种基于ELM和SVM的快速优化分类算法,其特征在于,包括如下步骤:(1)对给定样本集S={(Xa,Yc)|1≤a≤A,1≤c≤C},通过ELM算法训练一随机初始化的单隐层前向人工神经网络,确立一个ELM分类器;(2)通过已训练好的ELM分类器,能够分别计算出输入样本集Sinput={Xa|1≤a≤A}的所有对应的隐层输出SHindeOutput={Xb'|1≤b≤B}和网络输出SNetOutput={Yc|1≤c≤C},并由此将原样本集分拆成两个新样本集,即S=SHideLayer+SOutLayer,其中SHideLayer={(Xa,X′b)|1≤a≤A,1≤b≤B},SOutLayer={(X′b,Yc)|1≤b≤B,1≤c≤C},显然SHideLayer和SOutLayer是两个线性可分的样本集;(3)对于上述样本集SHideLayer和SOutLayer,分别使用线性SVM算法训练学习,可分别得到它们各自的最优解,即SVMHideLayer:Xa→X′b和SVMOutLayer:X′b→Yc;(4)合并连接SVMHideLayer:Xa→X′b和SVMOutLayer:X′b→Yc,可得到基于原样本集S={(Xa,Yc)|1≤a≤A,1≤c≤C}的SVM分类器,显然不论性能上还是结构上,该SVM分类器将优于原有的ELM分类器,经过上面的步骤,形成的SVMHideLayer和SVMOutLayer即为该算法的分类器。2.如权利要求1所述的基于ELM和SVM的快速优化分类算法,其特征在于,步骤(1)中,对给定样本集S,通过训练网络建立单隐层前向人工神经网络映射关系,确立一个ELM分类器,具体为:对给定样本集S,通过训练建立映射关系,采用Sigmoid函数f(x)=1/(1+e-x)为激活函数;标记输入层有N个神经元,即有i=1,2,…,N;标记隐藏层有Q个神经元,即有q=1,2,…,Q;标记输出层有M个神经元,即有j=1,2,…,M;对于隐藏层的第q个神经元,则有N个权系数Wq,1,Wq,2,…Wq,N,另外取多一个Wq,N+1用于表示阈值θq;对于输出层的第j个神经元,则有Q个权系数Wj,1,Wj,2,…Wj,Q,另外取多一个Wj,Q+1用于表示阈值θj,并且在输入样本时,取Xa=(x1,x2,…,xN,1),具体包括如下步骤:(11)随机初始化一个单隐层ELM神经网络;对各层的权系数置一个较小的非零随机数作为初值,但其中Wq,N+1=-θq,Wj,Q+1=-θj;(12)输入一个样本Xa=(x1,x2,…,xN,1),以及对应的期望输出Yc=(y1,y2,…,yj,…yM);(13)计算各个层的输出:对于隐藏层第q个神经元的输出Dq,q=1,2,…,Q有:其中xN+1=1,Wq,i+1=-θq;对于输出层第j个神经元的输出Hj,j=1,2,…,M有:其中DQ+1=1,Wj,Q+1=-θj;(14)计算输出层各神经元学习误差dj:dj=Hj(1-Hj)(Hj-yj);(15)修正输出层权系数Wj,q和阈值θj,Wj,q(t+1)=Wj,q(t)-η·dj·Dq+αΔWj,q(t);其中Wj,q(t+1)表示第t+1次修改权系数Wj,q值;η为学习速率,即步长,η∈[0.1,0.4]...
【专利技术属性】
技术研发人员:钟水明,刘成广,陆晓翔,仲昭奕,童怡玲,
申请(专利权)人:南京信息工程大学,
类型:发明
国别省市:江苏,32
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。