深度变分自编码器模型训练方法、装置、设备和存储介质制造方法及图纸

技术编号:30799216 阅读:19 留言:0更新日期:2021-11-16 08:04
本申请涉及一种深度变分自编码器模型训练方法、装置、计算机设备和存储介质。本申请能够利用可视化图表训练样本对预先构建的深度变分自编码模型进行训练,不需要对图表进行事先标注就可以使得模型自动学习可视化图表训练样本中有价值的特征因子,提高了模型的泛化能力。该方法包括:获取可视化图表训练样本,以及预先构建的深度变分自编码器模型骨架;确定潜变量空间的维度和潜变量空间的因子先验分布;基于维度和因子先验分布,利用可视化图表训练样本对预先构建的深度变分自编码器模型骨架进行训练,以使深度变分自编码器模型骨架生成的重构图表概率分布与可视化图表训练样本的原始概率分布趋于一致,得到训练好的深度变分自编码器模型。变分自编码器模型。变分自编码器模型。

【技术实现步骤摘要】
深度变分自编码器模型训练方法、装置、设备和存储介质


[0001]本申请涉及人工智能
,特别是涉及一种深度变分自编码器模型训练方法、装置、计算机设备和存储介质。

技术介绍

[0002]随着信息技术的发展,可视化软件创作技术逐渐成熟,例如Tableuau,Microsoft PowerBI等软件极大地简化了可视化图表的创建,能够为新闻文章、商业报告、研究论文等提供直观且数据丰富的可视化图表。
[0003]机器学习技术能够从大量图表中识别出有价值的信息,例如图表模式,包括颜色、形状、位置等因子,基于这些因子能够对图表特征进行高效探索。例如目前采用的深度变分自编码器模型(Deep Variational AutoEncoder,VAE),能够将大量的复杂的图表映射为低维空间,并从低维空间中解耦出多个具有独立语义特征的因子,例如解耦为颜色、形状、位置等因子,进而实现图表特征探索。
[0004]然而,在对深度变分自编码器模型进行训练时,往往需要大量样本数据,而对于图表数据库,例如城市的热力图数据,其数据量较小,会导致训练后的模型欠拟合,降低深度变分自编码器模型的泛化能力,难以探索有效特征。

技术实现思路

[0005]基于此,有必要针对上述技术问题,提供一种深度变分自编码器模型训练方法、装置、计算机设备和存储介质。
[0006]一种深度变分自编码器模型训练方法,应用于服务器,所述方法包括:
[0007]获取可视化图表训练样本,以及预先构建的深度变分自编码器模型骨架;其中,所述预先构建的深度变分自编码器模型骨架包含潜变量空间;
[0008]确定所述潜变量空间的维度和所述潜变量空间的因子先验分布;
[0009]基于所述维度和所述因子先验分布,利用所述可视化图表训练样本对所述预先构建的深度变分自编码器模型骨架进行训练,以使所述预先构建的深度变分自编码器模型骨架生成的重构图表概率分布与所述可视化图表训练样本的原始概率分布趋于一致,得到训练好的深度变分自编码器模型。
[0010]在其中一个实施例中,所述基于所述维度和所述因子先验分布,利用所述可视化图表训练样本对所述预先构建的深度变分自编码器模型骨架进行训练,以使所述预先构建的深度变分自编码器模型骨架生成的重构图表概率分布与所述可视化图表训练样本的原始概率分布趋于一致,得到训练好的深度变分自编码器模型,包括:
[0011]获取基于梯度下降法的深度学习优化器;
[0012]基于所述维度、因子先验分布和深度学习优化器,利用所述基于梯度下降法的深度学习优化器以及所述可视化图表训练样本更新所述预先构建的深度变分自编码器模型骨架的模型参数,以使所述基于梯度下降法的深度学习优化器的损失函数值最大化,得到
所述训练好的深度变分自编码器模型。
[0013]在其中一个实施例中,所述获取可视化图表训练样本之后,所述方法还包括:
[0014]利用线性变换方法基于所述可视化图表训练样本构建增广样本;
[0015]所述基于所述维度和所述因子先验分布,利用所述可视化图表训练样本对所述预先构建的深度变分自编码器模型骨架进行训练,以使所述预先构建的深度变分自编码器模型骨架生成的重构图表概率分布与所述可视化图表训练样本的原始概率分布趋于一致,得到训练好的深度变分自编码器模型,包括:
[0016]基于所述维度、所述因子先验分布和所述深度学习优化器,利用所述增广样本对所述预先构建的深度变分自编码器模型骨架进行训练,以使所述基于梯度下降法的深度学习优化器的损失函数值最大化,且最优运输损失最小化,得到训练好的深度变分自编码器模型;
[0017]其中,所述最优运输损失最小化,是指所述增广数据在所述潜变量空间上预测分布与最有运输路径计算出的分布近似。
[0018]在其中一个实施例中,所述利用线性变换方法基于所述可视化图表训练样本构建增广样本,包括:
[0019]对于所述可视化图表训练样本中的任意两个可视化图表,利用线性变换公式对所述任意两个可视化图表进行计算,得到线性所述增广样本;其中,所述线性变换公式为:
[0020][0021]其中,入为线性增广参数,为增广样本,X1与X2为所述可视化图表训练样本中的任意两个可视化图表。
[0022]在其中一个实施例中,所述方法还包括:
[0023]利用泽维尔初始化方法对深度变分自编码器模型骨架进行参数初始化,得到所述预先构建的深度变分自编码器模型骨架。
[0024]在其中一个实施例中,所述可视化图表训练样本为独立同分布的样本。
[0025]在其中一个实施例中,
[0026]所述预先构建的深度变分自编码器模型骨架包括编码器和解码器;所述编码器是基于全卷积神经网络、稠密卷积神经网络或者残差神经网络构建的;所述解码器是基于反卷积算子构建的。
[0027]一种深度变分自编码器模型训练装置,所述装置包括:
[0028]训练样本获取模块,用于获取可视化图表训练样本,以及预先构建的深度变分自编码器模型骨架;其中,所述预先构建的深度变分自编码器模型骨架包含潜变量空间;
[0029]因子先验分布确定模块,用于确定所述潜变量空间的维度和所述潜变量空间的因子先验分布;
[0030]模型生成模块,用于基于所述维度和所述因子先验分布,利用所述可视化图表训练样本对所述预先构建的深度变分自编码器模型骨架进行训练,以使所述预先构建的深度变分自编码器模型骨架生成的重构图表概率分布与所述可视化图表训练样本的原始概率分布趋于一致,得到训练好的深度变分自编码器模型。
[0031]一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理
器执行所述计算机程序时实现如上述深度变分自编码器模型训练方法实施例中的各步骤。
[0032]一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上述深度变分自编码器模型训练方法实施例中的各步骤。
[0033]上述深度变分自编码器模型训练方法、装置、计算机设备和存储介质,通过获取可视化图表训练样本,以及预先构建的深度变分自编码器模型骨架;其中,预先构建的深度变分自编码器模型骨架包含潜变量空间;确定潜变量空间的维度和潜变量空间的因子先验分布;基于维度和因子先验分布,利用可视化图表训练样本对预先构建的深度变分自编码器模型骨架进行训练,以使预先构建的深度变分自编码器模型骨架生成的重构图表概率分布与可视化图表训练样本的原始概率分布趋于一致,得到训练好的深度变分自编码器模型。该方法能够利用可视化图表训练样本对预先构建的深度变分自编码模型进行训练,不需要对图表进行事先标注就可以使得模型自动学习可视化图表训练样本中有价值的特征因子,提高了模型的泛化能力。
附图说明
[0034]图1为一个实施例中深度变分自编码器模型训练方法的应用环境图;
[0035]图2为一个实施例中深度变分自编码器模型训练方法的流程示意图;
[本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种深度变分自编码器模型训练方法,其特征在于,应用于服务器,所述方法包括:获取可视化图表训练样本,以及预先构建的深度变分自编码器模型骨架;其中,所述预先构建的深度变分自编码器模型骨架包含潜变量空间;确定所述潜变量空间的维度和所述潜变量空间的因子先验分布;基于所述维度和所述因子先验分布,利用所述可视化图表训练样本对所述预先构建的深度变分自编码器模型骨架进行训练,以使所述预先构建的深度变分自编码器模型骨架生成的重构图表概率分布与所述可视化图表训练样本的原始概率分布趋于一致,得到训练好的深度变分自编码器模型。2.根据权利要求1所述的方法,其特征在于,所述基于所述维度和所述因子先验分布,利用所述可视化图表训练样本对所述预先构建的深度变分自编码器模型骨架进行训练,以使所述预先构建的深度变分自编码器模型骨架生成的重构图表概率分布与所述可视化图表训练样本的原始概率分布趋于一致,得到训练好的深度变分自编码器模型,包括:获取基于梯度下降法的深度学习优化器;基于所述维度、因子先验分布和深度学习优化器,利用所述基于梯度下降法的深度学习优化器以及所述可视化图表训练样本更新所述预先构建的深度变分自编码器模型骨架的模型参数,以使所述基于梯度下降法的深度学习优化器的损失函数值最大化,得到所述训练好的深度变分自编码器模型。3.根据权利要求2所述的方法,其特征在于,所述获取可视化图表训练样本之后,所述方法还包括:利用线性变换方法基于所述可视化图表训练样本构建增广样本;所述基于所述维度和所述因子先验分布,利用所述可视化图表训练样本对所述预先构建的深度变分自编码器模型骨架进行训练,以使所述预先构建的深度变分自编码器模型骨架生成的重构图表概率分布与所述可视化图表训练样本的原始概率分布趋于一致,得到训练好的深度变分自编码器模型,包括:基于所述维度、所述因子先验分布和所述深度学习优化器,利用所述增广样本对所述预先构建的深度变分自编码器模型骨架进行训练,以使所述基于梯度下降法的深度学习优化器的损失函数值最大化,且最优运输损失最小化,得到训练好的深度变分自编码器模型;其中,所述最优运输损失最小化...

【专利技术属性】
技术研发人员:李鹏黄文琦梁凌宇曾群生陈佳捷郭尧衡星辰林志达
申请(专利权)人:南方电网数字电网研究院有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1