【技术实现步骤摘要】
【国外来华专利技术】用于使用二元张量和缩放因子对来增强神经网络的方法和装置优先权本申请要求享有于2017年5月23日提交的题为“METHODSANDAPPARATUSFORENHANCINGANEURALNETWORKUSINGBINARYTENSORANDSCALEFACTORPAIRS”的美国临时专利申请第62/510,025号的优先权和权益,该申请通过引用合并于此并共同转让。
实施例总体上涉及数据处理,并且更具体地涉及经由通用图形处理单元的数据处理。特别地,实施例涉及用于使用二元张量和缩放因子对来增强神经网络的系统和方法。
技术介绍
当前的并行图形数据处理包括开发用于对图形数据执行诸如线性插值、曲面细分、光栅化、纹理映射、深度测试等之类的特定操作的系统和方法。传统上,图形处理器使用固定功能计算单元来处理图形数据;然而,最近,图形处理器的部分已经变得可编程,使得这些处理器能够支持更多种操作来处理顶点和片段数据。为了进一步提高性能,图形处理器典型地实现诸如流水线化之类的处理技术,流水线化尝试在图形流水线的不同部分中并行地处理尽可能多的图形数据。具有单指令、多线程(SIMT)架构的并行图形处理器被设计用于使图形流水线中的并行处理量最大化。在SIMT架构中,并行线程组尝试尽可能频繁地同步地一起执行程序指令,以提高处理效率。可以在ShaneCook的CUDAProgramming第3章第37-51页(2013)中找到对SIMT架构的软件和硬件的总体概述。机器学习已经在解决多种任务方面取得了成功 ...
【技术保护点】
1.一种优化经训练的卷积神经网络(CNN)的方法,包括:/n将近似残差初始化为用于所述经训练的CNN的经训练的权重张量;/n确定多个二元张量和缩放因子对;以及/n使用所述二元张量和缩放因子对来更新所述近似残差。/n
【技术特征摘要】
【国外来华专利技术】20170523 US 62/510,0251.一种优化经训练的卷积神经网络(CNN)的方法,包括:
将近似残差初始化为用于所述经训练的CNN的经训练的权重张量;
确定多个二元张量和缩放因子对;以及
使用所述二元张量和缩放因子对来更新所述近似残差。
2.根据权利要求1所述的方法,还包括:
迭代地确定附加的二元张量和缩放因子对并且使用所述附加的二元张量和缩放因子对来更新所述近似残差。
3.根据权利要求1所述的方法,其中,迭代地确定附加的二元张量和缩放因子对并且使用所述附加的二元张量和缩放因子对来更新所述近似残差被重复,以找到最大网络效率。
4.根据权利要求1所述的方法,还包括:
通过确定二元张量的基数和一系列缩放因子来对所述经训练的CNN的经训练的滤波器进行近似。
5.根据权利要求4所述的方法,其中,确定所述二元张量的基数和所述一系列缩放因子包括确定多个二元近似,其中,每个近似是不同的二元张量的组合,并且每个二元张量是与缩放因子配对的。
6.根据权利要求1所述的方法,其中,确定所述多个二元张量和缩放因子对包括:
通过将第一二元张量和缩放因子选择为最优值,并且针对多个附加选择中的每一个选择使用先前选择的最优值直到所有所述经训练的滤波器被近似,来启发式地学习二元张量和缩放因子。
7.根据权利要求6所述的方法,其中,每个二元张量表示相应的近似残差的符号,并且每个缩放因子表示对应的平均幅度。
8.根据权利要求6所述的方法,其中,每个二元张量表示相应的近似残差的符号,并且每个缩放因子是使用所有二元张量的最小二乘回归来细化的。
9.根据权利要求1所述的方法,其中,所述经训练的权重张量包括浮点权重张量。
10.根据权利要求1所述的方法,其中,所述二元张量和缩放因子对包括二元结构。
11.根据权利要求10所述的方法,还包括:
直接在根据CNN模型的预训练的滤波器中使用所述二元结构,以经由张量展开产生二元权重模型。
12.根据权利要求1所述的方法,还包括:
在对所述近似残差进行初始化之前,利用特定二元基数的线性跨度对所述预训练的滤波器进行近似。
13.根据权利要求1所述的方法,还包括:
对相同的二元张量进行分组以追求最大的网络效率。
14.一种包括指令的机器可读介质,所述指令在由所述机器操作时使所述机器执行权利要求1至13所述的方法中的任何一个或多个。
15.一种装置,包括:
存储器,其用于存储输入初始结果、中间结果和最终结果;
神经网络;以及
处理器,其用于引起、优化或配置所述神经网络来执行权利要求1至13所述的方法中的任何一个或多个。
16.一种装置,包括:
存储...
【专利技术属性】
技术研发人员:郭怡文,姚安邦,赵昊,陆鸣,陈玉荣,
申请(专利权)人:英特尔公司,
类型:发明
国别省市:美国;US
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。