使用神经网络的压缩感测制造技术

技术编号:30633417 阅读:9 留言:0更新日期:2021-11-04 00:11
用于使用神经网络进行压缩感测的方法、系统和装置,包括在计算机存储介质上编码的计算机程序。方法之一包括:接收输入数据项的输入测量;对于一个或多个优化步骤中的每个:使用生成器神经网络处理潜在表示以生成候选重构数据项,使用测量神经网络处理候选重构数据项以生成候选重构数据项的测量,以及更新潜在表示以减少在测量和输入测量之间的误差;在一个或多个优化步骤之后使用生成器神经网络处理潜在表示以生成输入数据项的重构。潜在表示以生成输入数据项的重构。

【技术实现步骤摘要】
【国外来华专利技术】使用神经网络的压缩感测


[0001]本说明书涉及使用神经网络压缩和重构数据。

技术介绍

[0002]神经网络是机器学习模型,它应用一层或多层非线性单元来针对接收到的输入预测输出。除了输出层之外,一些神经网络还包括一个或多个隐藏层。每个隐藏层的输出用作对于在网络中的下一层的输入,网络中的下一层即下一个隐藏层或输出层。网络的每一层根据相应权重集的当前值从接收到的输入生成输出。

技术实现思路

[0003]本说明书描述了一种系统,该系统在一个或多个位置的一个或多个计算机上被实现为计算机程序,该系统使用深度压缩感测来压缩和重构—即解压缩—数据项。重构方案被称为深度压缩感测方案,因为它利用生成器神经网络和测量函数(其也可以是神经网络)在一个或多个优化步骤上优化数据项的重构。
[0004]因此,描述了一种重构数据项的方法,数据项例如是压缩或感测的数据项。该方法包括:接收输入数据项的输入测量,其中,输入数据项的输入测量是输入数据项的至少一个特征的表示,并且其中,输入测量具有比输入数据项低的维度;以及,初始化潜在表示,其中,潜在表示具有比输入数据项低的维度。该方法进一步包括,对于一个或多个优化步骤中的每个:使用具有多个生成器参数的生成器神经网络处理潜在表示,其中,生成器神经网络被配置为根据生成器的当前值处理潜在表示参数以生成候选重构数据项,使用具有多个测量参数的测量神经网络处理候选重构数据项,其中,测量神经网络被配置为根据测量参数的当前值处理候选重构数据项以生成候选重构数据项的度量,并更新潜在表示以减少候选重构数据项的测量与输入数据项的输入测量之间的误差;并且,使用生成器神经网络并根据生成器参数的当前值在一个或多个优化步骤之后处理潜在表示以生成输入数据项的重构。
[0005]压缩感测通常依赖于数据项——诸如图像—的稀疏性,以便能够使用保证在稀疏性约束下最小化测量误差的手段通过少量测量来重构数据项。稀疏性可能例如在频域中是隐式的,但稀疏性要求是一个重要的限制。所描述的方法的实施方式使用生成器神经网络和测量神经网络来解决这个问题,生成器神经网络隐式地将重构的数据项约束到低维流形,测量神经网络能够了解数据项的哪些方面对重构有用。因此,测量神经网络还可以充当编码器来压缩数据项,尽管当用于重构数据项时,它处理候选重构数据项。在生成重构时更新潜在表示有助于重构过程。
[0006]如下所述,对于生成器神经网络和测量神经网络不需要使用特殊的架构。
[0007]初始化潜在表示可以包括随机选择潜在表示。一个或多个优化步骤中优化步骤的数量可以是固定常数。在该方法的一些实施方式中,优化步骤的数量可能很小,例如少于十个,例如3

5。更新潜在表示可以包括相对于关于误差的潜在表示执行梯度下降步骤。
[0008]在实施方式中,通过经由一个或多个优化步骤的反向传播来联合训练生成器神经网络和测量神经网络以确定生成器参数和测量参数的当前值。候选重构数据项的测量与输入测量之间的误差取决于生成器参数和测量参数;通过优化步骤的反向传播可以包括调整这些参数。因此,可能已经使用元学习训练了生成器神经网络和测量神经网络。这可以显著减少用于重构数据项所需的处理,并有助于实现更高精度的重构。
[0009]当重构数据时,(在线)优化步骤可以包括通过确定相对于生成器参数的误差的梯度来确定对生成器参数的当前值的更新。即,可以调整生成器参数以及潜在表示以生成数据项的重构。这也有助于减少所需的处理并可以提高重构精度。
[0010]无需更新测量参数,原则上该技术甚至可以用于随机测量。然而,在一些实施方式中,可以通过类似地确定相对于测量参数的测量损失函数的梯度来更新测量参数。
[0011]测量损失函数的梯度也可以相对于生成器参数来确定,并且可以与相对于生成器参数的误差梯度结合使用以更新生成器参数的当前值。
[0012]在实施方式中,对于一对数据项,测量损失测量以下之间的差:(i)该对中两个数据项之间差的测量的范数和(ii)该对中的两个数据项之间的差的范数。这种形式的测量损失可以有助于在优化步骤期间保持过程的稳定性。
[0013]在一些实施方式中,通过使用测量神经网络并根据测量参数的当前值处理输入数据项来生成输入数据项的输入测量。因此,在这些实施方式中,测量神经网络充当数据编码器或压缩器以将输入数据项压缩成对输入数据项进行的测量的形式。在其他实施方式中,可以通过对从一个或多个感测器—例如,一个或多个电、磁或光感测器—直接或间接导出的数据进行采样来获得输入测量。然后,输入数据项可以被认为是由来自感测器的数据表示并且要从来自感测器的数据重构的数据项。
[0014]一般而言,输入数据项可以是具有第一数量元素的张量,并且其中,输入测量可以是具有第二、更低(得多)数量的元素的张量。输入测量可以例如被存储在磁盘或其他非易失性存储器中,或例如经由一个或多个有线或无线通信链接传输;然后相应地被检索或接收,并且如所描述的那样重构输入数据项。
[0015]输入数据项通常可以包括任何种类的数据;该方法的实施方式可以学习重构不同类型的数据项。仅作为示例,输入数据项可包括音频数据项、图像数据项(其在此包括视频数据项)或从一个或多个电、磁或光感测器导出的数据。
[0016]在一些实施方式中,该方法用于生成而不是解压缩数据项,例如来自反映训练数据集的分布的数据项。在这样的实施方式中,输入测量可以编码输入数据项已经由生成器神经网络生成而不是真实输入数据项的可能性。或者,对于多个类中的每个类,输入测量可以包括表示输入数据项属于该类的可能性的分数。多个类可以包括仅包括由生成器神经网络生成的数据项的类。如前,生成的数据项可以包括音频数据项—例如表示语音—或图像数据项。
[0017]可以实现本说明书中描述的主题的特定实施例以实现以下优点中的一个或多个。
[0018]所描述的技术在确保高重构质量的同时允许以非常数据有效的方式压缩和重构高维数据项,例如大图像。特别地,可以从单个低维测量有效地重构高维输入。可以从高维输入通过测量神经网络的单次前向传递中生成低维测量。通过在重构过程期间利用测量神经网络和生成器神经网络,重构过程可以生成高质量的重构,其具有大大减少的计算预算,
比传统的压缩感测技术消耗更少的计算资源。特别地,其他采用压缩感测的技术可能需要数百或数千个优化步骤,并在重构过程中需要多次重启以实现高质量的重构,而所描述的技术可以在不到十个步骤中实现高质量的重构,而无需任何重启。
[0019]当用于生成数据项时,所描述的技术可以以最小的额外开销—即以在潜在空间中执行的固定数量的优化步骤—生成比传统对抗生成技术更高质量的数据项,且因此计算高效。
[0020]在附图和以下描述中阐述了本说明书的主题的一个或多个实施例的细节。本主题的其他特征、方面和优点将从说明书、附图和权利要求中变得明显。
附图说明
[0021]图1示出了示例编码器系统和示例解码器系统。
[0022]图2是用于生成本文档来自技高网
...

【技术保护点】

【技术特征摘要】
【国外来华专利技术】1.一种重构压缩数据项的方法,所述方法包括:接收输入数据项的输入测量,其中,所述输入数据项的所述输入测量是所述输入数据项的至少一个特性的表示,并且其中,所述输入测量具有比所述输入数据项低的维度;初始化潜在表示,其中,所述潜在表示具有比所述输入数据项低的维度;对于一个或多个优化步骤中的每个:使用具有多个生成器参数的生成器神经网络处理所述潜在表示,其中,所述生成器神经网络被配置为根据所述生成器参数的当前值处理所述潜在表示以生成候选重构数据项,使用具有多个测量参数的测量神经网络处理所述候选重构数据项,其中,所述测量神经网络被配置为根据所述测量参数的当前值处理所述候选重构数据项以生成所述候选重构数据项的测量,以及更新所述潜在表示以减少在所述候选重构数据项的所述测量与所述输入数据项的所述输入测量之间的误差;以及使用所述生成器神经网络并根据所述生成器参数的所述当前值在所述一个或多个优化步骤之后处理所述潜在表示以生成所述输入数据项的重构。2.根据权利要求1所述的方法,其中,初始化所述潜在表示包括随机选择潜在表示。3.根据权利要求1或2中任一项所述的方法,其中,所述输入测量对所述输入数据项已由所述生成器神经网络生成而不是实际输入数据项的可能性进行编码。4.根据权利要求1或2中任一项所述的方法,其中,对于多个类中的每个类,所述输入测量包括表示所述输入数据项属于所述类的可能性的分数。5.根据权利要求4所述的方法,其中,所述多个类包括仅包括由所述生成器神经网络生成的数据项的类。6.根据权利要求1所述的方法,其中,所述输入数据项是具有第一数量元素的张量,并且其中,所述输入测量是具有第二、较低数量元素的张量。7.根据任一前述权利要求所述的方法,其中,所述...

【专利技术属性】
技术研发人员:蒂莫西
申请(专利权)人:渊慧科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1