神经网络搜索方法、装置、电子设备和存储介质制造方法及图纸

技术编号:37182769 阅读:22 留言:0更新日期:2023-04-20 22:48
本公开提供了一种神经网络搜索方法、装置、电子设备和存储介质,通过基于第一搜索空间构建超网,其中,第一搜索空间包括深度可分离卷积模块,深度可分离卷积模块包括不同卷积核尺寸的多个第一卷积分支,且多个第一卷积分支分别级联第一批归一化层,各第一批归一化层的输出合并连接至下一操作层;基于训练样本对超网进行迭代训练,直至超网满足收敛条件;使得搜索空间能够对相同张量进行不同感受野大小的特征提取,从训练完备的超网中搜索满足部署条件的目标子网,从而解决了相关技术的搜索空间只能进行固定感受野大小的特征提取的问题,提升了模型的性能。提升了模型的性能。提升了模型的性能。

【技术实现步骤摘要】
神经网络搜索方法、装置、电子设备和存储介质


[0001]本专利技术涉及人工智能
,尤其涉及一种神经网络搜索方法、装置、电子设备和存储介质。

技术介绍

[0002]神经结构搜索(Neural Architecture Search,NAS),是一种基于权重共享的神经网络搜索方法,该搜索方法先通过特定的搜索空间构建超网,再对超网进行训练。当超网训练完备后,搜索满足部署条件的目标子网,最后将搜索得到的目标子网部署到生产环境中。然而,相关技术的搜索空间只能进行固定感受野大小的特征提取,限制了模型的性能。

技术实现思路

[0003]鉴于此,本公开提供了一种神经网络搜索方法、装置、电子设备和存储介质,以使得搜索空间能够对相同张量进行不同感受野大小的特征提取。
[0004]根据本公开的一方面,提供了一种神经网络搜索方法,包括:基于第一搜索空间构建超网,其中,所述第一搜索空间包括深度可分离卷积模块,所述深度可分离卷积模块包括不同卷积核尺寸的多个第一卷积分支,且所述多个第一卷积分支分别级联第一批归一化层,各所述第一批归一化层的输出合并连接至下一操作层;基于训练样本对所述超网进行迭代训练,直至所述超网满足收敛条件;从训练完备的超网中搜索满足部署条件的目标子网。
[0005]一种可选的实施方式中,基于第一搜索空间构建超网,包括:将所述多个第一卷积分支分别与级联的第一批归一化层进行合并,得到多个第二卷积分支,并将所述多个第二卷积分支进行合并,得到第三卷积分支。
[0006]一种可选的实施方式中,将所述多个第二卷积分支进行合并,得到第三卷积分支,包括:将各所述第二卷积分支的卷积核矩阵进行边界填充,使得所述多个第二卷积分支的卷积核尺寸保持一致;将经过边界填充后的所述多个第二卷积分支的卷积核矩阵相加,得到所述第三卷积分支。
[0007]一种可选的实施方式中,所述多个第一卷积分支包括以下至少两种卷积核尺寸:1,3,5,7。
[0008]一种可选的实施方式中,所述第一搜索空间还包括:第一特征提取单元和第二特征提取单元,所述第一特征提取单元、所述深度可分离卷积模块、所述第二特征提取单元依次连接;其中,所述第一特征提取单元包括依次连接的第一卷积层、第二批归一化层和第一激活层;所述第二特征提取单元包括依次连接的第二激活层和注意力模块。
[0009]一种可选的实施方式中,所述第一搜索空间还包括:携带有批归一化操作的跳跃连接层,所述跳跃连接层与所述深度可分离卷积模块并列设置于所述第一特征提取单元和所述第二特征提取单元之间。
[0010]一种可选的实施方式中,基于第一搜索空间构建超网,包括:将所述跳跃连接层与
多个第二卷积分支合并,得到第三卷积分支,其中,所述多个第二卷积分支经由所述多个第一卷积分支分别与级联的第一批归一化层进行合并得到。
[0011]一种可选的实施方式中,所述第一搜索空间还包括:第三特征提取单元,所述第三特征提取单元的输入端与所述第二特征提取单元的输出端连接,所述第三特征提取单元包括依次连接的第二卷积层和第三批归一化层;基于第一搜索空间构建超网,包括:将所述第三特征提取单元的输出特征图与所述第一特征提取单元的输入特征图相加,得到所述第一搜索空间的输出特征图。
[0012]一种可选的实施方式中,从训练完备的超网中搜索满足部署条件的目标子网,包括:将位宽和卷积核大小满足所述部署条件的子网作为所述目标子网。
[0013]根据本公开的另一方面,提供了一种神经网络搜索装置,包括:构建模块,用于基于第一搜索空间构建超网,其中,所述第一搜索空间包括深度可分离卷积模块,所述深度可分离卷积模块包括不同卷积核尺寸的多个第一卷积分支,且所述多个第一卷积分支分别级联第一批归一化层,各所述第一批归一化层的输出合并连接至下一操作层;训练模块,用于基于训练样本对所述超网进行迭代训练,直至所述超网满足收敛条件;搜索模块,用于从训练完备的超网中搜索满足部署条件的目标子网。
[0014]根据本公开的另一方面,提供了一种电子设备,包括:处理器;以及存储程序的存储器,其中,所述程序包括指令,所述指令在由所述处理器执行时使所述处理器执行上述任一方面所述的神经网络搜索方法。
[0015]根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行上述任一方面所述的神经网络搜索方法。
[0016]本公开实施例中提供的一个或多个技术方案,通过基于第一搜索空间构建超网,其中,第一搜索空间包括深度可分离卷积模块,深度可分离卷积模块包括不同卷积核尺寸的多个第一卷积分支,且多个第一卷积分支分别级联第一批归一化层,各第一批归一化层的输出合并连接至下一操作层;基于训练样本对超网进行迭代训练,直至超网满足收敛条件;使得搜索空间能够对相同张量进行不同感受野大小的特征提取,从训练完备的超网中搜索满足部署条件的目标子网,从而解决了相关技术的搜索空间只能进行固定感受野大小的特征提取的问题,提升了模型的性能。
附图说明
[0017]在下面结合附图对于示例性实施例的描述中,本公开的更多细节、特征和优点被公开,在附图中:
[0018]图1示出了相关技术中搜索空间的结构示意图;
[0019]图2示出了根据本公开示例性实施例的神经网络搜索方法的流程图;
[0020]图3示出了根据本公开示例性实施例的第一搜索空间的结构示意图一;
[0021]图4示出了根据本公开示例性实施例的第一搜索空间的结构示意图二;
[0022]图5示出了根据本公开示例性实施例的第一搜索空间的结构示意图三;
[0023]图6示出了根据本公开示例性实施例的第一卷积分支与级联的批归一化层合并的示意图;
[0024]图7示出了根据本公开示例性实施例的第二卷积分支合并的示意图;
[0025]图8示出了根据本公开示例性实施例的神经网络搜索装置的结构示意图;
[0026]图9示出了能够用于实现本公开的实施例的示例性电子设备的结构框图。
具体实施方式
[0027]下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
[0028]应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
[0029]本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种神经网络搜索方法,其特征在于,包括:基于第一搜索空间构建超网,其中,所述第一搜索空间包括深度可分离卷积模块,所述深度可分离卷积模块包括不同卷积核尺寸的多个第一卷积分支,且所述多个第一卷积分支分别级联第一批归一化层,各所述第一批归一化层的输出合并连接至下一操作层;基于训练样本对所述超网进行迭代训练,直至所述超网满足收敛条件;从训练完备的超网中搜索满足部署条件的目标子网。2.如权利要求1所述的神经网络搜索方法,其特征在于,基于第一搜索空间构建超网,包括:将所述多个第一卷积分支分别与级联的第一批归一化层进行合并,得到多个第二卷积分支,并将所述多个第二卷积分支进行合并,得到第三卷积分支。3.如权利要求2所述的神经网络搜索方法,其特征在于,将所述多个第二卷积分支进行合并,得到第三卷积分支,包括:将各所述第二卷积分支的卷积核矩阵进行边界填充,使得所述多个第二卷积分支的卷积核尺寸保持一致;将经过边界填充后的所述多个第二卷积分支的卷积核矩阵相加,得到所述第三卷积分支。4.如权利要求1至3中任一项所述的神经网络搜索方法,其特征在于,所述多个第一卷积分支包括以下至少两种卷积核尺寸:1,3,5,7。5.如权利要求1至3中任一项所述的神经网络搜索方法,其特征在于,所述第一搜索空间还包括:第一特征提取单元和第二特征提取单元,所述第一特征提取单元、所述深度可分离卷积模块、所述第二特征提取单元依次连接;其中,所述第一特征提取单元包括依次连接的第一卷积层、第二批归一化层和第一激活层;所述第二特征提取单元包括依次连接的第二激活层和注意力模块。6.如权利要求5所述的神经网络搜索方法,其特征在于,所述第一搜索空间还包括:携带有批归一化操作的跳跃连接层,所述跳跃连接层与所述深度可分离卷积模块并列设置于所述第一特征提取单元和所述第二特征提...

【专利技术属性】
技术研发人员:张凯昱杨青
申请(专利权)人:度小满科技北京有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1