【技术实现步骤摘要】
学习方法、计算机可读记录介质和学习装置相关申请的交叉引用本申请要求2019年1月17日向日本特许厅提交的日本专利申请第2019-006133号的优先权,该申请的全部内容通过引用被并入在此。
本文讨论的实施方式涉及学习方法等。
技术介绍
在对深度学习模型进行学习时,训练数据(学习数据)的量是显著地有助于性能的因素,因此优选地具有更多的训练数据。如果训练数据不足并且将训练数据中不存在的类型的应用数据应用于利用训练数据进行学习的深度学习模型,则增加了无法获得适当的输出结果的可能性,从而导致失败。此外,在处理客户数据的业务站点中,考虑到合同或信息泄露的风险,难以长时间保存一个客户的数据或将其重新用于另一客户的任务。因此,训练数据可能不足。当训练数据不足时,通常执行数据扩展(dataaugmentation)。数据扩展是对原始训练数据进行噪声添加(noiseaddition)、平行移位以及缺失(missing)等处理,并且使得能够将训练数据的范围扩大到应用数据的范围。存在如下传统技术:在该传统技 ...
【技术保护点】
1.一种由计算机执行的学习方法,所述方法包括:/n通过将原始训练数据输入至包括在学习模型中的第一神经网络来生成第一特征值和第二特征值;以及/n学习所述学习模型的至少一个参数和对输入至所述第一神经网络的数据进行重构的解码器的参数,以使得通过将所述第一特征值和所述第二特征值输入至所述解码器而从所述解码器输出的重构数据变得接近原始训练数据,并且使得通过将所述第二特征值输入至包括在所述学习模型中的第二神经网络而从所述第二神经网络输出的输出数据变得接近原始训练数据的正确数据。/n
【技术特征摘要】
20190117 JP 2019-0061331.一种由计算机执行的学习方法,所述方法包括:
通过将原始训练数据输入至包括在学习模型中的第一神经网络来生成第一特征值和第二特征值;以及
学习所述学习模型的至少一个参数和对输入至所述第一神经网络的数据进行重构的解码器的参数,以使得通过将所述第一特征值和所述第二特征值输入至所述解码器而从所述解码器输出的重构数据变得接近原始训练数据,并且使得通过将所述第二特征值输入至包括在所述学习模型中的第二神经网络而从所述第二神经网络输出的输出数据变得接近原始训练数据的正确数据。
2.根据权利要求1所述的学习方法,其中,所述学习对参考特征值和所述第一神经网络的参数进行学习,以使得各个第二特征值变得与所述参考特征值相似,所述各个第二特征值是通过将多个扩展训练数据输入至所述第一神经网络来计算的,并且所述多个扩展训练数据是通过对相同的原始训练数据进行数据扩展而获得的。
3.根据权利要求2所述的学习方法,还包括:
执行将所述参考特征值和所述相同的原始训练数据的正确数据以彼此关联的方式存储在存储装置中的处理。
4.根据权利要求3所述的学习方法,其中,所述学习对所述第二神经网络的参数进行学习,以使得输出数据变得接近与所述参考特征值对应的正确数据,所述输出数据是通过将存储在所述存储装置中的所述参考特征值输入至所述第二神经网络而从所述第二神经网络输出的。
5.一种存储有处理计算机程序的计算机可读记录介质,所述处理计算机程序使计算机执行包括下述操作的处理:
通过将原始训练数据输入至包括在学习模型中的第一神经网络来生成第一特征值和第二特征值;以及
学习所述学习模型的至少一个参数和对输入至所述第一神经网络的数据进行重构的解码器的参数,以使得通过将所述第一特征值和所述第二特征值输入至所述解码器而从所述解码器输出的重构数据变得接近原始训练数据,并且使得通过将所述第二特征值输入至包括在所述学习模型中的第二神经网络而从所述第二神经网络输出的输出数据变得接近原始训练数据的正确数据。
6.根据权利要求5所述的计算机可读记录介质,其中,所述学习对参考特征值和所述第一神经网络的参数进行学习,以使得各...
【专利技术属性】
技术研发人员:河东孝,上村健人,安富优,
申请(专利权)人:富士通株式会社,
类型:发明
国别省市:日本;JP
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。