An image incremental learning method based on variational self-encoding includes the following steps: 1) constructing the main network with ResNet50 network layer structure as the prototype, introducing MMD distance measurement; 2) setting up the optimizer and learning rate, using knowledge distillation and weight penalty strategy; 3) training ResNet50 model with limited sample increment method; 4) optimum module for the last heavy-duty training; Type I. Repeat the training with the restrictive sample increment method until all the incremental data have been trained. The invention makes the generation of anti-disturbance no longer limited to the influence of many environmental factors in practice, and has high practical value.
【技术实现步骤摘要】
一种基于迁移模型的图像增量学习方法
本专利技术涉及增量学习方法和知识蒸馏技术,借鉴了迁移学习(TransferLearning)的思想,利用权重惩罚(WeightPunish)的技巧,结合限制性的样本增量学习方法,控制每次学习过程中的训练样本数目,在保持旧类别分类识别精度的前提下,同时提高对新增类别数据的分类精度,从而达到在原有模型上的增量学习。
技术介绍
近年来,深度卷积神经网络(DeepConvolutionalNeuralnetwork,DCNNs)已成为大规模图像分类的主要结构。2012年,AlexNet通过实施Deep-CNN并将DCNNs推入大众视野下,赢得了ImageNet大规模视觉识别挑战(ISLVRC)。从那时起,它们就主导了ISLVRC,并在MNIST、Cifar10/100和ImageNet等流行的图像数据集上表现出色。随着对大量标记数据(例如ImageNet包含120万幅图像和1000个类别)的出现,在图像识别领域中,监督学习得到快速发展。通常情况下,DCNN是在包含大量标签的图像数据集中进行训练的。网络学习提取相关特征并对这些图像进行分类。这个训练过的模型被用于对无标签图像进行分类。在训练过程中,所有的训练数据都会提供给网络进行重复训练。然而,在现实世界中,我们很难同时拥有所有数据的数据分布。相反,数据是逐步收集而汇总得到的。因此,我们需要一个方法可以学习新的数据,并且不会遗忘旧的知识。增量学习可以很好地解决这个问题,同时增量学习在图像识别领域很大程度上依赖于DCNN的发展。DCNN能够在同一个模型中实现特征提取和分类识别,但是对 ...
【技术保护点】
1.一种基于迁移模型的图像增量学习方法,其特征在于,所述方法包括如下步骤:S1:构造以ResNet50网络层结构为原型的主网络,在ResNet50最后输出层后添加MMD,MMD是迁移学习,用来度量两个相关但不同分布之间的距离;S2:ResNet50模型采用Adam训练优化器,学习率为自适应下降的策略,同时,基础分类损失函数是交叉熵函数,权重惩罚策略为加大对先前样本错分的损失值,利用知识蒸馏引入KL相对熵损失函数缓解遗忘已训练的类别;S3:训练方式采用限制性的样本增量方法训练ResNet50模型:每次增量训练时,随机选取50%新增类别数据,并结合相同数量的先前类别数据进行联合训练,严格控制了单次训练样本和训练时间;训练结束后,评估在测试集上精度,并且保存性能最高的模型参数;S4:重载最近一次训练的最佳模型,重复S2~S3步骤,评估在所有测试集上的性能,直到训练完所有增量数据。
【技术特征摘要】
1.一种基于迁移模型的图像增量学习方法,其特征在于,所述方法包括如下步骤:S1:构造以ResNet50网络层结构为原型的主网络,在ResNet50最后输出层后添加MMD,MMD是迁移学习,用来度量两个相关但不同分布之间的距离;S2:ResNet50模型采用Adam训练优化器,学习率为自适应下降的策略,同时,基础分类损失函数是交叉熵函数,权重惩罚策略为加大对先前样本错分的损失值,利用知识蒸馏引入KL相对熵损失函数缓解遗忘已训练的类别;S3:训练方式采用限制性的样本增量方法训练ResNet50模型:每次增量训练时,随机选取50%新增类别数据,并结合相同数量的先前类别数据进行联合训练,严格控制了单次训练样本和训练时间;训练结束后,评估在测试集上精度,并且保存性能最高的模型参数;S4:重载最近一次训练的最佳模型,重复S2~S3步骤,评估在所有测试集上的性能,直到训练完所有增量数据。2.如权利要求1所述的一种基于迁移模型的图像增量学习方法,其特征在于:所述步骤S1中,ResNet50是一个残差结构的卷积神经网络,在ResNet50最后输出层后添加MMD,MMD是迁移学习,用来度量两个相关但不同分布之间的距离,定...
【专利技术属性】
技术研发人员:宣琦,缪永彪,陈晋音,
申请(专利权)人:浙江工业大学,
类型:发明
国别省市:浙江,33
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。