深度神经网络图像分类方法、装置、设备和存储介质制造方法及图纸

技术编号:33395571 阅读:11 留言:0更新日期:2022-05-11 23:15
本发明专利技术涉及一种深度神经网络图像分类方法、装置、电子设备和计算机可读存储介质。其中方法包括:获取训练数据集,包括多个图像训练样本;深度神经网络的网络结构至少包括输入层、连接层、卷积层、池化层、全连接层;连接层进行数据维度映射,映射函数是非线性函数,多个函数结果的集合则构成了对输入数据的集成编码;深度神经网络的卷积层由多层构成,沿着网络正向传播样本;深度神经网络的池化层对数据进行池化;对深度神经网络的全连接层进行训练;将待分类的图像输入训练好的深度神经网络进行图像分类。进行图像分类。进行图像分类。

【技术实现步骤摘要】
深度神经网络图像分类方法、装置、设备和存储介质


[0001]本专利技术涉及人工智能领域,特别涉及一种深度学习方法。

技术介绍

[0002]人工神经网络是在人类对其大脑神经网络认识理解的基础上人工构造的能够实现某种功能的神经网络。实际上是一个由大量简单神经元相互连接而成的复杂网络,具有高度非线性,并行性,能够进行复杂的逻辑操作和非线性关系实现的系统。
[0003]由于人工神经网络基于大脑神经网络的结构功能而建立,因此人工神经网络在处理具有复杂内容的图像识别、图像分类时具有良好的处理效果。
[0004]而深度神经网络是一种具有较多隐藏层的人工神经网络。深度神经网络内部的神经网络层可以分为三类,输入层,隐藏层和输出层。一般来说第一层是输入层,最后一层是输出层,而中间的层数都是隐藏层。
[0005]深度神经网络通常采用的是有监督学习方式,往往需要大量的标注好的数据来训练深度网络模型,然而在实际应用中获取的数据绝大部分属于无标注数据,如果对大量无标注数据进行人工标注则需要很高的人力和时间成本。
[0006]自编码器是一种常用的深度神经网络基本模型,其基本思想是网络的输出与输入相等,训练过程中不需要标记数据,可以以无监督的方式直接从原始数据中进行特征学习。现有技术中,以单隐层前馈神经网络作为基本模型构建多个自编码器,通过计算伪逆矩阵来训练每一个自编码器,得到第i层自编码器的连接权重;将训练完成的前一层自编码器的隐层输出作为后一层自编码器的输入,重复上述步骤,训练新的自编码器;训练完成后,所有自编码器去掉解码器后堆叠为一个深度神经网络结构。
[0007]现有技术中自编码器堆叠成的深度神经网络,其结构模式具有一定的局限性。面对一些面向图像识别、图像分类的特定任务时,深度神经网络的现有构建和训练方法需要开拓新的方法。

技术实现思路

[0008]本专利技术的目的在于克服现有的深度神经网络训练算法的不足。本专利技术为解决其技术问题采用的技术方案如下:
[0009]一种深度神经网络图像分类方法,包括:
[0010]步骤S01:获取训练数据集,训练数据集包括多个图像样本;所述训练数据集用于训练深度神经网络;所述深度神经网络的网络结构至少包括输入层、连接层、卷积层、池化层、全连接层;
[0011]步骤S02:针对每个图像训练样本,提取图像特征;由多个图像训练样本的图像特征输入深度神经网络的输入层;
[0012]步骤S03:深度神经网络的连接层进行数据维度映射,假设连接层的输入数据是m维,映射后的输出数据是n维,映射函数为f(x,α),其中x是输入数据,α是映射参数;当映射
参数取不同值时,得到多个不同的函数结果;多个函数结果的集合则构成了对输入数据x的集成编码;映射函数是非线性函数;
[0013]步骤S04:深度神经网络的卷积层由多层构成,沿着网络正向传播样本;计算l层到l+1层的连接权重W
l
;将连接权重W
l
乘以第l层的神经元输出矩阵Y
l
,并应用激活函数,可以得到第l+1层的输出矩阵Y
l+1
;其中l为深度神经网络的层编号;激活函数采用阶跃激活函数或Sigmoid函数;调节正则化参数以控制重构误差的大小;其中,计算连接权重W
l
的过程包括,第l层的输入数据矩阵为X
l
,对X
l
进行奇异值分解,得到矩阵U、Σ、V,使得X
l
=UΣV
T
;计算X
l
的伪逆矩阵Y=VΣ

U
T
;其中,Σ

为Σ中奇异值的倒数组成的对角矩阵;对矩阵V进行截断,保留V矩阵的前p行,得到截断后的矩阵V

。计算近似的伪逆矩阵X

表示为X

=V

Σ

U
T
;将X

作为第l层到第l+1层的连接权重W
l

[0014]步骤S05:深度神经网络的池化层对数据进行池化,池化层对数据进行降维,使得连接层后提升的维度得以降低;
[0015]步骤S06:对深度神经网络的全连接层进行训练;以完成用于图像分类的深度神经网络的训练;
[0016]步骤S07:将待分类的图像输入训练好的深度神经网络进行图像分类。
[0017]本专利技术还提供了一种深度神经网络图像分类装置,包括:
[0018]数据获取模块:获取训练数据集,训练数据集包括多个图像样本;所述训练数据集用于训练深度神经网络;所述深度神经网络的网络结构至少包括输入层、连接层、卷积层、池化层、全连接层;
[0019]数据映射模块:针对每个图像训练样本,提取图像特征;由多个图像训练样本的图像特征输入深度神经网络的输入层;深度神经网络的连接层进行数据维度映射,假设连接层的输入数据是m维,映射后的输出数据是n维,映射函数为f(x,α),其中x是输入数据,α是映射参数;当映射参数取不同值时,得到多个不同的函数结果;多个函数结果的集合则构成了对输入数据x的集成编码;映射函数是非线性函数;
[0020]由于上述步骤,本专利技术能够可以将原始数据映射到高维的数据空间;映射函数是非线性函数可以更有效的提高原始数据的可分性;
[0021]网络训练模块:深度神经网络的卷积层由多层构成,沿着网络正向传播样本;计算l层到l+1层的连接权重W
l
;将连接权重W
l
乘以第l层的神经元输出矩阵Y
l
,并应用激活函数,可以得到第l+1层的输出矩阵Y
l+1
;其中l为深度神经网络的层编号;激活函数采用阶跃激活函数或Sigmoid函数;调节正则化参数以控制重构误差的大小;其中,计算连接权重W
l
的过程包括,第l层的输入数据矩阵为X
l
,对X
l
进行奇异值分解,得到矩阵U、Σ、V,使得X
l
=UΣV
T
;计算X
l
的伪逆矩阵Y=VΣ

U
T
;其中,Σ

为Σ中奇异值的倒数组成的对角矩阵;对矩阵V进行截断,保留V矩阵的前p行,得到截断后的矩阵V

。计算近似的伪逆矩阵X

表示为X

=V

Σ

U
T
;将X

作为第l层到第l+1层的连接权重W
l

[0022]深度神经网络的池化层对数据进行池化,池化层对数据进行降维,使得连接层后提升的维度得以降低;对深度神经网络的全连接层进行训练;以完成用于图像分类的深度神经网络的训练;
[0023]图像分类模块:将待分类的图像输入训练好的深度神本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种深度神经网络图像分类方法,其特征在于:步骤S01:获取训练数据集,训练数据集包括多个图像样本;所述训练数据集用于训练深度神经网络;所述深度神经网络的网络结构至少包括输入层、连接层、卷积层、池化层、全连接层;步骤S02:针对每个图像训练样本,提取图像特征;由多个图像训练样本的图像特征输入深度神经网络的输入层;步骤S03:深度神经网络的连接层进行数据维度映射,假设连接层的输入数据是m维,映射后的输出数据是n维,映射函数为f(x,α),其中x是输入数据,α是映射参数;当映射参数取不同值时,得到多个不同的函数结果;多个函数结果的集合则构成了对输入数据x的集成编码;映射函数是非线性函数;步骤S04:深度神经网络的卷积层由多层构成,沿着网络正向传播样本;计算l层到l+1层的连接权重W
l
;将连接权重W
l
乘以第l层的神经元输出矩阵Y
l
,并应用激活函数,可以得到第l+1层的输出矩阵Y
l+1
;其中l为深度神经网络的层编号;激活函数采用阶跃激活函数或Sigmoid函数;调节正则化参数以控制重构误差的大小;其中,计算连接权重W
l
的过程包括,第l层的输入数据矩阵为X
l
,对X
l
进行奇异值分解,得到矩阵U、Σ、V,使得X
l
=UΣV
T
;计算X
l
的伪逆矩阵Y=VΣ

U
T
;其中,Σ

为Σ中奇异值的倒数组成的对角矩阵;对矩阵V进行截断,保留V矩阵的前p行,得到截断后的矩阵V

;计算近似的伪逆矩阵X

表示为X

=V

Σ

U
T
;将X

作为第l层到第l+1层的连接权重W
l
;步骤S05:深度神经网络的池化层对数据进行池化,池化层对数据进行降维,使得连接层后提升的维度得以降低;步骤S06:对深度神经网络的全连接层进行训练;以完成用于图像分类的深度神经网络的训练;步骤S07:将待分类的图像输入训练好的深度神经网络进行图像分类。2.根据权利要求1所述的一种深度神经网络图像分类方法,其特征在于,步骤S03中,连接层产生随机的基向量,映射矩阵为随机产生的n
×
m矩阵R,且R每列是一个单位向量;将连接层的输入数据随机映射到这组基向量上。3.一种深度神经网络图像分类装置,包括:数据获取模块:获取训练数据集,训练数据集包括多个图像...

【专利技术属性】
技术研发人员:郭平杨栋
申请(专利权)人:北京师范大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1