学习自动编码器制造技术

技术编号:19424601 阅读:34 留言:0更新日期:2018-11-14 10:25
本发明专利技术显著地涉及用于学习自动编码器的计算机实现的方法。该方法包括提供图像的数据集。每个图像包括相应的对象表示。该方法还包括基于数据集来学习自动编码器。学习包括最小化重建损失。重建损失包括针对每个相应图像惩罚距离的项。惩罚的距离处于将自动编码器应用于相应图像的结果与将变换的组的至少一部分应用于相应图像的对象表示的结果集合之间。这种方法提供了学习自动编码器的改进的解决方案。

【技术实现步骤摘要】
学习自动编码器
本专利技术涉及计算机程序和系统领域,并且更具体地涉及用于学习自动编码器的方法、设备、数据结构和程序。
技术介绍
市场上提供了很多用于对象的设计、工程以及制造的系统和程序。CAD是计算机辅助设计的首字母缩写,例如,CAD涉及用于对对象进行设计的软件解决方案。CAE是计算机辅助工程的首字母缩写,例如,CAE涉及用于对未来产品的物理行为进行仿真的软件解决方案。CAM是计算机辅助制造的首字母缩写,例如,CAM涉及用于对制造工艺和操作进行定义的软件解决方案。在这样的计算机辅助设计系统中,图形用户接口对于技术的效率起到重要作用。这些技术可以嵌入到产品生命周期管理(PLM)系统中。PLM是指这样的商业策略:跨越扩展企业的概念而帮助公司来共享产品数据、应用公共过程以及利用企业知识来从概念至产品的生命结束地开发产品。由DassaultSystèmes提供的PLM解决方案(商标为CATIA、ENOVIA以及DELMIA)提供了组织产品工程知识的工程中心、管理制造工程知识的制造中心、以及使得企业能够集成并连接到工程及制造中心的企业中心。该系统一起提供了开放的对象模型,其将产品、过程、资源链接起来以实现动态的且基于知识的产品创造与决策支持,这驱动优化的产品定义、制造准备、生产以及服务。在该上下文和其他上下文中,机器学习,并且尤其是自动编码器和/或流形学习变得非常重要。以下论文涉及该领域,并且在下文中提及:[1]:“StackedDenoisingAutoencoders:LearningUsefulRepresentationsinDeepNetworkwithaLocalDenoisingCriterion”,P.Vincent,H.Larcohelle,I.Lajoie,Y.Bengio,P.Manzagol,JournalofMachineLearningResearch,2010。[2]:“ReducingtheDimensionalityofDatawithNeuralNetworks”,G.E.Hinton,R.R.Salakhutdinov,Science,2006。[3]:“GeneralizedDenoisingAuto-EncodersasGenerativeModels”,Y.Bengio,L.Yao,G.Alain,P.Vincent,AdvancesinNeuralInformationProcessingSystems,2013。[4]:“LearningDeepArchitecturesforAI”,Y.Bengio,FoundationsandTrendsinMachineLearning,2009。[5]:“ExtractingandComposingRobustFeatureswithDenoisingAutoencoders”,P.Vincent,H.Larochelle,Y.Bengio,P.Manzagol,W.Cohen,A.Mcallum,S.Roweis,InternationalConferenceonMachineLearning,2008。[6]:“GreedyLayer-WiseTrainingofDeepNetworks”,Y.Bengio,P.Lamblin,D.Popovici,H.Larcohelle,B.J.Platt,T.Hoffman,NeuralInformationProcessingSystems,2007。[7]:“Auto-EncodingVariationalBayes”,D.Kingma,M.Winging,InternationalConferenceonLearningRepresentations,2014。[8]:“StochasticBackpropagationandApproximateInferenceinDeepGenerativeModels”,D.Rezende,S.Mohamed,D.Wierstra,InternationalConferenceonMachineLearning,2014。[9]:“GenerativeAdversarialNets”,I.Goodfellow,J.Pouget-Abadie,M.Mirza,B.Xu,D.Warde-Farley,S.Ozair,A.Courville,Y.Bengio,AdvancesinNeuralInformationProcessingSystems,2014。[10]:“AFastLearningAlgorithmforDeepBeliefNets”,G.Hinton,S.Osindero,Y.The,NeuralComputation,2006。给定表示来自同一类的示例样本的图像的数据集(例如,椅子的2D图像的数据集或汽车的3D模型的数据集),自动编码器学习(在[1,2]中解释)旨在学习该数据集的原始输入空间与低维空间(通常称为潜在空间)之间的映射(编码器)。此外,自动编码器还学习从潜在空间到原始输入空间的反向映射(解码器)。自动编码器的学习质量可以作为自动编码器对输入进行编码的容量来测量,并且然后根据预定的距离将已编码的输入解码回接近输入的输出。在该上下文中,仍然存在对用于学习自动编码器的改进解决方案的需求。
技术实现思路
因此提供了一种用于学习自动编码器的计算机实现的方法。该方法包括提供图像的数据集。每个图像包括相应的对象表示。该方法还包括基于数据集来学习自动编码器。学习包括重建损失的最小化。重建损失包括针对每个相应图像惩罚距离的项。惩罚的距离处于将自动编码器应用于相应图像的结果与将变换的组的至少一部分应用于相应图像的对象表示的结果集合之间。该方法可以包括以下中的一个或多个:-自动编码器关于变换的组的至少一部分是不变的;-自动编码器包括:变换组件、聚合组件、编码组件以及解码组件,变换组件被配置为将变换的组的至少一部分中的每个变换应用于输入图像的对象表示,聚合组件被配置为应用于源自变换组件的结果;-编码组件被配置为并行地应用于变换组件的每个结果;-聚合组件被配置为应用于编码组件的结果;-解码组件被配置为应用于聚合组件的结果;-编码组件和/或解码组件包括卷积神经网络;-源自聚合组件被配置为应用于的第一组件的结果是具有相同大小的向量,聚合组件输出具有相同大小的向量,该向量针对每个坐标具有值,该值等于聚合组件被配置为应用于的向量的所述坐标的值之中的最大值;-图像是表面占用3D模型,变换的组包括平移;和/或-对象表示各自是同一类对象的实例的表示,数据集的每个图像具有非定向框架,每个对象表示在非定向框架中对齐,变换的组包括从非定向框架中的一个对齐到非定向框架中的另一对齐的全部旋转。还提供了包括编码器、解码器和/或通过该方法可学习的整个自动编码器的信息。整个自动编码器由自动编码器本身组成。自动编码器包括:编码器,其被配置为例如将属于图像空间的任何输入编码为属于潜在空间的向量;以及解码器,其被配置为将属于潜在空间的任何向量解码为属于图像空间的输出。这样提供的信息可以以任何方式使用。还提供了一种包括用于执行该方法和/或该过程的指令的计算机程序。还本文档来自技高网
...

【技术保护点】
1.一种用于学习自动编码器的计算机实现的方法,所述方法包括:提供图像的数据集,每个图像包括相应的对象表示;以及基于所述数据集来学习所述自动编码器

【技术特征摘要】
2017.04.27 EP 17305475.01.一种用于学习自动编码器的计算机实现的方法,所述方法包括:提供图像的数据集,每个图像包括相应的对象表示;以及基于所述数据集来学习所述自动编码器所述学习包括最小化重建损失(E(W,W′)),所述重建损失包括项所述项针对每个相应图像(xi)惩罚如下的距离所述距离处于将所述自动编码器应用于所述相应图像(xi)的结果与将变换(h)的组的至少一部分应用于所述相应图像(xi)的对象表示的结果集合之间。2.根据权利要求1所述的方法,其中,所述自动编码器关于所述变换的组的至少一部分是不变的。3.根据权利要求2所述的方法,其中,所述自动编码器包括:变换组件、聚合组件(60)、编码组件(fW)以及解码组件(gW’),所述变换组件被配置为将所述变换的组的至少一部分中的每个变换应用于输入图像的所述对象表示,所述聚合组件(60)被配置为应用于源自所述变换组件的结果。4.根据权利要求3所述的方法,其中,所述编码组件被配置为并行地应用于所述变换组件的每个结果(51-54)。5.根据权利要求4所述的方法,其中,所述聚合组件被配置为应用于所述编码组件的结果(zi)。6.根据权利要求3、4或5所述的方法,其中,所述解码组件被配置为应...

【专利技术属性】
技术研发人员:E·梅尔A·利厄捷
申请(专利权)人:达索系统公司
类型:发明
国别省市:法国,FR

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1