一种包含两个CNN的深度学习模型的构建方法技术

技术编号:20222298 阅读:41 留言:0更新日期:2019-01-28 20:38
本发明专利技术公开了一种新的深度学习模型的构建方法,具体是发明专利技术了一种包含两个结构相异的CNN且快速收敛的深度学习模型。本发明专利技术构建的深度学习模型中的两个CNN的卷积层、卷积核大小、池化层数和全连接方式均不相同,且每个CNN各分享一次其学习获得的特征信息,在分享或接受特征信息前,两个CNN均经历一次批归一化处理,若在特征信息分享时两CNN的通道数不同,调整通道数后,再做批归一化处理。当前深度学习模型提高性能的研究方向都是加深模型的网络深度,本发明专利技术提出的深度学习模型在不构建较深网络的前提下,提升了模型的性能,大大的加快网络的收敛速度,减少模型的参数,降低优秀的深度学习模型对计算机性能的严重依赖。

【技术实现步骤摘要】
一种包含两个CNN的深度学习模型的构建方法
本专利技术属于深度学习领域,具体是构建一种包含两个结构相异的卷积神经网络且能快速收敛的深度学习模型。
技术介绍
深度学习领域最为重要的算法——卷积神经网络(ConvolutionalNeuralNetwork,CNN),上世纪中后期最早被提出,虽然CNN处理图像数据有着优异性能,但受限于当时计算机的存储能力和运算能力,CNN算法并未得到学者们的广泛关注。进入二十一世纪,计算机的硬件基础和运算能力得到质的提升,复杂的CNN有了实现的基础,许多学者开始从事CNN在复杂图像识别中的应用研究。研究表明,深度学习模型的网络越深,它的特征提取能力就越强。目前基于CNN的深度学习提出的经典模型有六个,分别是LeNet(1998,5层)、AlexNet(2012,8层)、VGGNet(2014,16层)、GoogleNet(2014,21层)、ResNet(2015,152层)和DenseNet(2017,201层),其性能随着网络深度的加深也在增强。当前,深度学习模型提升性能的办法都是通过加深单个CNN的卷积层数,但是随着卷积层数的增加,因梯度消失或爆炸本文档来自技高网...

【技术保护点】
1.一种包含两个CNN的深度学习模型的构建方法,模型中采用两个结构相异的CNN,一个CNN选用6个卷积层,3个池化层;另一个CNN选用15个卷积层,4个池化层。在网络浅层处,两个CNN各分享一次其学习获得的特征信息;在网络末处,两个CNN学习获得的特征信息转化成一维特征向量并联后经一个Dropout层和两个全连接层,将其映射到对应输出的标签上。

【技术特征摘要】
1.一种包含两个CNN的深度学习模型的构建方法,模型中采用两个结构相异的CNN,一个CNN选用6个卷积层,3个池化层;另一个CNN选用15个卷积层,4个池化层。在网络浅层处,两个CNN各分享一次其学习获得的特征信息;在网络末处,两个CNN学习获得的特征信息转化成一维特征向量并联后经一个Dropout层和两个全连接层,将其映射到对应输出的标签上。2.根据权利要求1所述的一种包含两个CNN的深度学习模型的构建方法,其特征在于:含有15个卷积层的CNN的卷积核大小选用的是“1*1”和“3*3”,其中“1*1”的卷积核用于改变卷积层的通道数,“3*3”的卷积核用于特征提取,且每次经“3*3”卷积核卷积后,特征数据均做一次批归一化处理(BatchNormalization)。3.根据权利要求1所述的一种包含两个CNN的深度学习模型的构建方法,其特征在于:含有6个卷积层的CNN的卷积核大小选用的是“1*1”和“2*2”,其中“1*1”的卷积核用于改变卷积层的通道数,“2*2”的卷积核用于特征提取。4.根据权利要求1所述的一种包含两个CNN的深度学习模型的构建方法,其特征在于:含有15个卷积层的CNN包含有4个池化层,其中前三个池化层池化池化核大小为“2*2”,步长为2,第四个池化层池化核大小为“height*width”,步长为width(height和width为特征核的高与宽),含有6个卷积层的CNN包含3个池化层,每个池化层均采用“2*2”的池化核,步长为2,且每个池化层前均有两个卷积层。5.根据权利要求1所述的一种包含两个CNN...

【专利技术属性】
技术研发人员:来文豪周孟然江白华宋奇
申请(专利权)人:安徽理工大学
类型:发明
国别省市:安徽,34

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1