【技术实现步骤摘要】
一种基于样本重放和知识蒸馏的终身学习方法
[0001]本专利技术属于人工智能领域,具体涉及一种基于样本重放和知识蒸馏的终身学习方法。
技术介绍
[0002]传统的深度学习模型要求在训练前取得所有训练样本以进行离线训练,并且在训练结束后无法继续更新。然而,在开放动态环境中,训练样本往往以数据流的形式到来,或因存储、隐私等问题仅在一段时间内可以获得。理想情况下的深度学习模型应当能够仅利用数据流中的新样本更新模型,而无需耗费大量计算资源进行重新训练。然而,当深度学习模型从原来的批量学习模式转变为序列学习模式时,很容易出现对旧知识的遗忘,这意味着,在使用新数据更新模型后,模型在先前学习的任务中所达到的性能会急剧下降,出现灾难性遗忘。因此,如何在模型持续学习新数据的同时抵抗对旧数据的灾难性遗忘便成为终身学习问题的研究重点。
[0003]目前终身学习技术主要有基于样本重放的方法、基于知识蒸馏的方法和基于正则化的方法。
[0004]基于样本重放的方法通过获取存储在内存缓冲区中的先前任务数据子集并与当前任务数据集联合训练来解 ...
【技术保护点】
【技术特征摘要】
1.一种基于样本重放和知识蒸馏的终身学习方法,其特征在于,该方法包括:任务t代表将要处理的任务数据集,缓冲区M存放了过去任务的部分数据集以及旧模型的概率输出信息,当前任务的样本通过蓄水池抽样算法选择性地加入到缓冲区M中;在训练时,首先选择一种深度学习模型F,设置epochs和batch_size,模型F在任务t上训练损失记为Loss1,模型F在缓冲区M上的损失记为Loss2,其中h
θ
(x)表示模型F对样本x的类概率预测输出,z为旧模型在样本x上的类概率预测输出,表示z和h
θ
(x)的欧氏距离,z和h
θ
(x)越相似,欧氏距离越小;总损失为Loss=Loss1+α*Loss2,α是Loss1和Loss2之间平衡的超参数;此时判断是否达到训练总轮数epochs,如果达到则导出训练好的模型文件,否则反向传播更新权重并再次计算Loss。2.如权利要求1所述的基于样本重放和知识蒸馏的终身学习方法,其特征在于,模型F为ResNet18。3.如权利要求1所述的基于样本重放和知识蒸馏的终身学习方法,其特征在于,模型F为EfficientNet。4.如权利要求1所述的基于样本重放和知识蒸馏的终身学习方法,其特征在于,Loss1为交叉熵损失。5.如权利要求1所述的基于样本重放和知识蒸馏的终身学习方法,其特征在于,欧氏距离为KL欧氏距离。6.如权利要求1所述的基于样本重放和知识蒸馏的终身学习方法,其特征在于,旧模型作为教师模型,新模型作为学生模型,通过正则化损失函数实现教师模型对学生模型的指导。7.如权利要求1所述的基于样本重放和知识蒸馏的终身学习方法,其特征在于,M是总缓冲区,存储了过去任务1,2,...,t
...
【专利技术属性】
技术研发人员:刘朋杰,刘洪宇,王浩枫,
申请(专利权)人:北京计算机技术及应用研究所,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。