基于卷积循环神经网络的残差神经网络调整方法技术

技术编号:21687048 阅读:26 留言:0更新日期:2019-07-24 14:55
本发明专利技术提供了一种基于卷积循环神经网络的残差神经网络调整方法,属于神经网络结构优化领域。本发明专利技术解决了现有的残差神经网络缺乏将特征相互融合的缺陷,利用卷积循环神经网络根据每个残差块内部特征自动选择性的保存、更新以及输出可以重复利用的特征,用输出的可重复利用的特征和残差块内部的特征相融合去调整残差块的输出。本发明专利技术赋予了残差神经网络更为丰富的表达能力,大大的提高了残差神经网络的分类精度,为目前的基于残差的网络以及变体提供了新的通用的架构。

Residual Neural Network Adjustment Method Based on Convolutional Cyclic Neural Network

【技术实现步骤摘要】
基于卷积循环神经网络的残差神经网络调整方法
本专利技术属于神经网络结构优化领域,特别涉及一种基于卷积循环神经网络的残差神经网络调整方法。
技术介绍
卷积神经网络在一系列的计算机视觉问题上都取得重大突破。比如图片分类,物体识别,姿态检测,图片恢复等。残差神经网络(ResNet)以及它的变体无论在低层次和高层次的视觉任务中都取得了突出的成绩,获得了显著的关注。不仅如此,残差神经网络常常用作其他网络结构的一部分,是现在网络结构中最为常用的网络之一。残差神经网络的显著成功主要是由于其残差连接机制,使得更深层的网络训练成为可能,在这种情况下,可以避免训练过程中的梯度消失的问题。但是当残差网络层数的增加,许多层对于最后结果的影响微乎其微,可以被随意的丢弃,拥有更多层数的残差神经网络性能可能比低层的网络差。因为仅仅利用这种残差结构,在表达能力方面任有欠缺,为了进一步改善各层之间的信息流,密集连接卷积网络(DenseNet)提出通过拼接前面层的所有特征图来赋予网络更强的能力。但是这种密集的连接会造成网络参数的快速上升,同时复用前面层的所有特征会导致冗余。
技术实现思路
本专利技术的目的在于解决现有的残差神经网络由于缺乏特征之间的融合机制,从而导致表达能力仍有些许欠缺的问题,提出了一种基于卷积循环神经网络的残差神经网络调整方法,利用卷积循环神经网络的记忆力与门控机制,根据输入选择性的自动输出特征,输出的特征用于和残差神经网络中的特征相融合,从而起到调整输出的作用,在相同层数下,预测正确率得到明显提升。一种基于卷积循环神经网络的残差神经网络调整方法,包括以下步骤:S1、调整残差神经网络,将卷积循环神经网络和残差神经网络连接,得到卷积循环神经网络控制的残差神经网络R3esNet;S2、确定在R3esNet的残差神经网络中是否加入压缩与激励模块,加入所述压缩与激励模块后的网络为SE-R3esNet;S3、采用BP算法对R3esNet或SE-R3esNet网络进行训练;S4、将待预测数据输入至训练好的网络,得到分类结果。进一步地,所述步骤S1包括:调整残差神经网络,所述残差神经网络由残差块堆叠而成,将卷积循环神经网络和残差神经网络连接,当前状态卷积循环神经网络接收当前残差块中的信息It,通过处理得到输出Ht,Ht被输出到当前残差块的同时,作为下一状态的卷积循环神经网络的输入,当前残差块根据Ht调整输出Ot。进一步地,所述残差块包括大数据集和小数据集两种结构。进一步地,当所述残差块为小数据集结构时,所述卷积循环神经网络控制的残差神经网络R3esNet为:当前残差块接收上一残差块信息得到其中,t表示第t个残差块,表示第t个残差块中的第i个特征图,表示从第i个特征图映射到第j个特征图的卷积核,表示从第i个特征图映射到第j个特征图的对应的偏置,*表示卷积操作,BN(·)表示批归一化,ReLU(·)表示线性整流函数;将输入至当前残差块下一模块的同时,输入至当前状态卷积循环神经网络中,得到其中,ConvRNN为卷积循环神经网络,Ht-1是在前一状态ConvRNN的输出,Ht是当前状态ConvRNN的输出;将Ht输出至下一状态ConvRNN的同时,输入至当前残差块的下一模块,结合得到其中,Cat[·]表示把特征向量拼接在一起的拼接操作;将输入至当前残差块的下一模块,得到将输入至当前残差块的下一模块,得到作为下一残差块,即(t+1)残差块的输入。进一步地,当所述残差块为大数据集结构时,所述卷积循环神经网络控制的残差神经网络R3esNet为:当前残差块接收上一残差块信息得到其中,t表示第t个残差块,表示第t个残差块中的第i个特征图,表示从第i个特征图映射到第j个特征图的卷积核,表示从第i个特征图映射到第j个特征图的对应的偏置,*表示卷积操作,BN(·)表示批归一化,ReLU(·)表示线性整流函数;将输入至当前残差块下一模块的同时,输入至当前状态卷积循环神经网络中,得到其中,ConvRNN为卷积循环神经网络,Ht-1是在前一状态ConvRNN的输出,Ht是当前状态ConvRNN的输出;将Ht输出至下一状态ConvRNN的同时,输入至当前残差块的下一模块,结合得到其中,Cat[·]表示把特征向量拼接在一起的拼接操作;将输入至当前残差块的下一模块,得到将输入至当前残差块的下一模块,得到作为下一残差块,即(t+1)残差块的输入。进一步地,所述卷积循环神经网络包括卷积长短期记忆网络和卷积门控网络两种结构。进一步地,所述卷积长短期记忆网络结构为:其中,Xt表示输入的张量图,Ht-1表示上一步输出的隐藏状态,分别表示输入、遗忘和输出门,表示记忆单元,Sigmoid(·)表示S型函数,tanh(·)表示双曲正切函数,表示元素相乘。进一步地,所述卷积门控网络结构为:其中,Xt表示输入的张量图,Ht-1表示上一步输出的隐藏状态,表示更新门,表示重置门,Sigmoid(·)表示S型函数,tanh(·)表示双曲正切函数,表示元素相乘。进一步地,所述压缩与激励模块为:输入是一个三阶张量,输出是和X相同形状的三阶张量;z=GP(Xs=Sigmoid(W2ReLU(W1z))Y=s·(c)X其中,GP(·)表示全局平均池化,得到向量将向量z通过一个维度减少的全连接层一个维度增加的全连接层其中r表示压缩比率,·(c)表示信道层面的乘法,对于每个信道c,Yc=sc·Xc,是一个标量。本专利技术的有益效果:本专利技术提供了一种基于卷积循环神经网络的残差神经网络调整方法,本专利技术考虑到原始的残差神经网络简单的模块堆叠的结构缺乏对已学到的特征进行重新利用,密集神经网络将前面层所有学习到的特征拼接再利用会使得参数量随着每层的特征增加急剧增大。本专利技术利用ConvRNNs的记忆机制,对需要再利用的特征进行存储选择再利用,将再利用的特征和原本残差神经网络中的特征拼接融合产生新特征,从而增强了新的模型的表达能力。附图说明图1为本专利技术实施例的流程图。图2为本专利技术实施例的卷积循环神经网络控制的残差神经网络图。图3为本专利技术实施例的卷积循环神经网络控制的残差神经网络的连接图。图4为本专利技术实施例的卷积循环神经网络控制的残差神经网络的另一连接图。具体实施方式下面结合附图对本专利技术的实施例做进一步的说明。请参阅图1,本专利技术提供的一种基于卷积循环神经网络的残差神经网络调整方法,通过以下步骤实现:S1、调整残差神经网络,将卷积循环神经网络和残差神经网络连接,得到卷积循环神经网络控制的残差神经网络R3esNet。本实施例中,如图2所示,调整残差神经网络,残差神经网络由残差块堆叠而成,将卷积循环神经网络和残差神经网络连接,当前状态卷积循环神经网络接收当前残差块中的信息It,通过处理得到输出Ht,Ht被输出到当前残差块的同时,作为下一状态的卷积循环神经网络的输入,当前残差块根据Ht调整输出Ot。本实施例中,残差块包括大数据集和小数据集两种结构。请参阅图3,当残差块为小数据集结构设计时,卷积循环神经网络控制的残差神经网络R3esNet为:当前残差块接收上一残差块信息处理得到其中,t表示第t个残差块,表示第t个残差块中的第i个特征图,表示从第i个特征图映射到第j个特征图的卷积核,表示从第i个特征图映射到第j个特征图的对应的偏置,*本文档来自技高网...

【技术保护点】
1.一种基于卷积循环神经网络的残差神经网络调整方法,其特征在于,包括以下步骤:S1、调整残差神经网络,将卷积循环神经网络和残差神经网络连接,得到卷积循环神经网络控制的残差神经网络R

【技术特征摘要】
1.一种基于卷积循环神经网络的残差神经网络调整方法,其特征在于,包括以下步骤:S1、调整残差神经网络,将卷积循环神经网络和残差神经网络连接,得到卷积循环神经网络控制的残差神经网络R3esNet;S2、确定在R3esNet的残差神经网络中是否加入压缩与激励模块,加入所述压缩与激励模块后的网络为SE-R3esNet;S3、采用BP算法对R3esNet或SE-R3esNet网络进行训练;S4、将待预测数据输入至训练好的网络,得到分类结果。2.如权利要求1所述的基于卷积循环神经网络的残差神经网络调整方法,其特征在于,所述步骤S1包括:调整残差神经网络,所述残差神经网络由残差块堆叠而成,将卷积循环神经网络和残差神经网络连接,当前状态卷积循环神经网络接收当前残差块中的信息It,通过处理得到输出Ht,Ht被输出到当前残差块的同时,作为下一状态的卷积循环神经网络状态的输入,当前残差块根据Ht调整输出Ot。3.如权利要求2所述的基于卷积循环神经网络的残差神经网络调整方法,其特征在于,所述残差块包括大数据集和小数据集两种结构。4.如权利要求3所述的基于卷积循环神经网络的残差神经网络调整方法,其特征在于,当所述残差块为小数据集结构时,所述卷积循环神经网络控制的残差神经网络R3esNet为:当前残差块接收上一残差块信息得到其中,t表示第t个残差块,表示第t个残差块中的第i个特征图,表示从第i个特征图映射到第j个特征图的卷积核,表示从第i个特征图映射到第j个特征图的对应的偏置,*表示卷积操作,BN(·)表示批归一化,ReLU(·)表示线性整流函数;将输入至当前残差块下一模块的同时,输入至当前状态卷积循环神经网络中,得到其中,ConvRNN为卷积循环神经网络,Ht-1是在前一状态ConvRNN的输出,Ht是当前状态ConvRNN的输出;将Ht输出至下一状态ConvRNN的同时,输入至当前残差块的下一模块,结合得到其中,Cat[·]表示把特征向量拼接在一起的拼接操作;将输入至当前残差块的下一模块,得到将输入至当前残差块的下一模块,得到作为下一残差块,即(t+1)残差块的输入。5.如权利要求3所述的基于卷积循环神经网络的残差神经网络调整方法,其特征在于,当所述残差块为大数据集结...

【专利技术属性】
技术研发人员:徐增林徐菁潘宇潘星霖
申请(专利权)人:电子科技大学
类型:发明
国别省市:四川,51

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1