当前位置: 首页 > 专利查询>南通大学专利>正文

一种基于深度卷积神经网络的珍稀花卉自动识别方法技术

技术编号:33710651 阅读:14 留言:0更新日期:2022-06-06 08:42
本发明专利技术公开一种基于深度卷积神经网络的珍稀花卉自动识别方法,本发明专利技术方法利用图像搜索常见的普通花卉图像构建源域图像数据集,然后利用Vgg16深度卷积神经网络以及线性分类构建分类识别模型,利用源域图像以及对应的类别标签计算损失函数并使用SGD优化器对网络中的参数进行优化;接下来固定深度卷积网络中主干神经网络的参数并替换线性分类器,收集珍稀花卉图像构建目标域图像数据集,利用目标域图像以及对应的类别标签计算损失函数对网络分类器进行微调;最后利用训练好的深度卷积网络模型对珍稀花卉图像进行自动识别。本发明专利技术通过上述方式,能够大大提高对珍稀花卉的保护效率。能够大大提高对珍稀花卉的保护效率。能够大大提高对珍稀花卉的保护效率。

【技术实现步骤摘要】
一种基于深度卷积神经网络的珍稀花卉自动识别方法


[0001]本专利技术涉及一种基于深度卷积神经网络的珍稀花卉自动识别方法,属于计算机视觉领域。

技术介绍

[0002]我们生活的地球是由人类、各种动植物以及微生物组成的较为复杂的生态系统。其中植物是整个生态系统中的生产者,为各种动物提供能量,对于稳定了整个生态系统的平衡性具有重要作用。然而,由于人类工业化进程的不断加快,野生植物的生存环境不断恶化,大量的珍稀植物面临濒临灭绝的危险。例如,有些珍稀花卉不仅具有很强的观赏价值,并且含有丰富的营养价值,然而却陷入到“看一眼少一眼”的这种濒临灭绝的处境。因此,对这些包括珍稀花卉在内的野生植物进行保护,对于维护生物多样性、保护地球的生态平衡具有重要意义。
[0003]在对珍稀花卉的保护过程中,面临着诸多困难,其中一个突出问题为由于这些物种的稀缺性,珍稀花卉分类鉴定方面的专业人才非常匮乏。因此,如果能够对珍稀花卉进行自动识别,可以不再只依赖于生物学专家,在只获取少量珍稀花卉图像样本的情况下,就能完成对珍稀花卉的及时鉴定。这样即可以节省大量的人力物力,同时也可以大大提高保护效率。特征提取是图像自动分类识别性能的关键因素。深度卷积神经网络神模型通过逐层的特征变换来组合低层特征来形成抽象的高层表示,并通过对大量参数的优化学习保证模型具有强大的特征表示能力,在图像分类识别方面取得了巨大成功。因此,本专利技术公开一种基于深度卷积神经网络的珍稀花卉自动识别方法。

技术实现思路

[0004]针对上述现有技术存在的问题,本专利技术提供一种基于深度卷积神经网络的珍稀花卉自动识别方法,从而解决上述技术问题。
[0005]为了实现上述目的,本专利技术采用的技术方案是:一种基于深度卷积神经网络的珍稀花卉自动识别方法,包括以下步骤;
[0006]步骤S1:普通花卉图像的收集;
[0007]步骤S2:深度卷积网络的构建,深度卷积网络由主干神经网络、源域目标分类器以及Softmax层组成;
[0008]步骤S3:深度卷积网络的训练,从源域图像数据集随机抽取一批普通花卉图像输入到深度卷积网络中得到普通花卉图像的概率输出值,计算该概率输出值与真实标签值之间的损失函数,利用SGD优化器对网络中的参数进行优化,重复上述过程多次,直到损失函数收敛;
[0009]步骤S4:珍稀花卉图像的收集;
[0010]步骤S5:深度卷积网络的微调,固定深度卷积网络中主干神经网络的参数,将源域目标分类器替换为目标域分类器,从目标域图像数据集随机抽取一批珍稀花卉图像输入到
深度卷积网络中得到珍稀花卉图像的概率输出值,计算该概率输出值与真实标签值之间的损失函数,利用SGD优化器对网络中的参数进行优化,重复上述过程多次,直到损失函数收敛;
[0011]步骤S6:珍稀花卉图像的分类测试,固定深度卷积网络中主干神经网络以及目标域分类器中的参数,将在线采集到的珍稀花卉图像输入到深度卷积网络中得到珍稀花卉图像的类别值。
[0012]进一步的,所述步骤S1的具体步骤如下:
[0013]S11:利用图像搜索引擎搜索100类常见的普通花卉,每类收集100幅图像;按照花卉的生物学特性,这些花卉总体上被分为草本花卉和木本花卉两大类别;
[0014]S12:将收集到的图像中模糊的图像、重复或者相似性极高的图像进行人工剔除,从而构建源域图像数据集I
source

[0015]进一步的,所述步骤S2的具体步骤如下:
[0016]S21:深度卷积网络的主干神经网络为VGG16,该网络包含13个卷积层和3个全连接层。所有卷积层又被分为5组,每组内包含2到3个卷积层以及一个最大池化层,这5组内部卷积核的数量分别为64,128,256,512,512。主干神经网络表示为V
θ
(
·
),其中θ表示主干网络中的参数;
[0017]S22:深度卷积网络中的源域分类器表示为L
s
(
·
),对常见花卉图像计算源域类别分类值,其中s为参数;
[0018]S23:深度卷积网络中的Softmax层表示为S(
·
),将常见花卉图像的源域类别分类值转化为类别概率输出值。
[0019]进一步的,所述步骤S3的具体步骤如下:
[0020]S31:从源域图像数据集随机抽取一批普通花卉图像,其中第i幅图像表示为I
i
,其对应的类别标签表示为y
i
∈[1,2,3...,100];
[0021]S32:源域图像输入到深度卷积网络中的主干神经网络中提取的特征表示为V
θ
(I
i
);
[0022]S33:源域分类器利用图像特征对常见花卉图像计算源域类别分类值的公式为:
[0023]S
i
=L
s
(V
θ
(I
i
))=V
θ
(I
i
)[s1,s2,.......s
N
]=[V
θ
(I
i
)s1,V
θ
(I
i
)s2,.......V
θ
(I
i
)s
N
]ꢀꢀꢀ
(1);
[0024]其中[s1,s2,.......s
N
]表示源域分类器中权重向量,N=100对应常见花卉图像的类别;
[0025]S34:卷积神经网络中的softmax层S(
·
)将源域分类分值S
i
转化为概率输出值的计算公式为:
[0026][0027]其中S
in
表示源域分类值S
i
的第n个分量,p
in
表示常见花卉图像属于第n∈N=100个源域类别的概率值;
[0028]S35:概率输出值与真实标签值之间损失函数的计算公式为:
[0029]Loss
S
(θ,s)=∑
i
y
in
p
in
ꢀꢀꢀ
(3);
[0030]其中y
in
表示第i个常见花卉图像源域分类标签的第n∈N=100个分量;
[0031]S36:基于上述损失函数,利用SGD优化器网络中的参数进行优化,其中训练的epoch被设为200,初始学习率设为0.05。
[0032]进一步的,所述步骤S4的具体步骤如下:
[0033]S41:利用图像搜索引擎搜索20类常见的普通花卉,每类收集5幅图像;
[0034]S42:将收集到的图像中模糊的图像、重复或者相似性极高的图像进行人工剔除,从而构建目标域图像数据集I
object

[0035]进一步的,所述步骤S5的具体步本文档来自技高网
...

【技术保护点】

【技术特征摘要】
(1);其中[s1,s2,.......s
N
]表示源域分类器中权重向量,N=100对应常见花卉图像的类别;S34:卷积神经网络中的softmax层S(
·
)将源域分类分值S
i
转化为概率输出值的计算公式为:其中S
in
表示源域分类值S
i
的第n个分量,p
in
表示常见花卉图像属于第n∈N=100个源域类别的概率值。S35:概率输出值与真实标签值之间损失函数的计算公式为:Loss
S
(θ,s)=∑
i
y
in
p
in (3);其中y
in
表示第i个常见花卉图像源域分类标签的第n∈N=100个分量;S36:基于上述损失函数,利用SGD优化器网络中的参数进行优化,其中训练的epoch被设为200,初始学习率设为0.05。5.根据权利要求1所述的一种基于深度卷积神经网络的珍稀花卉自动识别方法,其特征在于,所述步骤S4的具体步骤如下:S41:利用图像搜索引擎搜索20类常见的普通花卉,每类收集5幅图像;S42:将收集到的图像中模糊的图像、重复或者相似性极高的图像进行人工剔除,从而构建目标域图像数据集I
object
。6.根据权利要求1所述的一种基于深度卷积神经网络的珍稀花卉自动识别方法,其特征在于,所述步骤S5的具体步骤如下:S51:固定深度卷积网络中主干神经网络的参数θ,将源域分类器替换为目标域分类器,目标源域分类器表示为L
o
(
·
),其中o为参数;S52:从目标域图像数据集随机抽取一批珍稀花卉图像,其中第j幅图像表示为I
j
,其对应的类别标签表示为y
j
∈[1,2,3...,20];S53:目标域图像输入到深度卷积网络中的主干神经网络中提取的特征表示为V
θ
(I
j
);S54:目标域分类器利用图像特征对常...

【专利技术属性】
技术研发人员:杨赛周伯俊杨慧
申请(专利权)人:南通大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1