【技术实现步骤摘要】
本专利技术一般涉及关联存储器设备,尤其涉及关联存储器设备中的深度学习。
技术介绍
1、神经网络是通过考虑示例来学习完成任务的计算系统,通常没有任务特定的编程。典型的神经网络是按层组织的节点的互连组;每个层可以对其输入执行不同的转换。神经网络可以在数学上表示为向量,表示层中节点的激活,以及矩阵,表示相邻层的节点之间的互连的权重。网络功能是对向量和矩阵以及在向量和矩阵之间执行的一系列数学运算,以及对存储在向量和矩阵中的值执行的非线性运算。
2、在整个本申请中,矩阵由粗体的大写字母表示,例如,a,以小写粗体的向量,例如,a,以及由斜体字体表示的向量和矩阵的条目,例如a和a。因此,矩阵a的i、j项由aij表示,矩阵a的行i表示为ai-,矩阵a的列j表示为a-j,而向量a的条目i由ai表示。
3、循环神经网络(rnn)是当当前计算的输出取决于先前计算的值时对值序列的操作有用的特殊类型的神经网络。lstm(长短期记忆)和gru(门控循环单元)是rnn的示例。
4、网络的输出特征向量(循环和非循环)是存储m个数值的
...【技术保护点】
1.一种用于循环神经网络的方法,所述方法包括:
2.如权利要求1所述的方法,还包括通过并行将所述循环神经网络的输入向量乘以输入嵌入矩阵的多个列来减小所述输入向量的大小。
3.如权利要求1所述的方法,还包括并行激活所述关联存储器设备的至少两行,以在所述相似性分数向量的所有元素上并行激活非线性函数,以提供概率分布向量。
4.如权利要求3所述的方法,其中,所述非线性函数是SoftMax函数。
5.如权利要求3所述的方法,还包括找到所述概率分布向量中的极值以找到与所述未分类项最相似的分类项,其计算复杂度为O(1)。
...
【技术特征摘要】
1.一种用于循环神经网络的方法,所述方法包括:
2.如权利要求1所述的方法,还包括通过并行将所述循环神经网络的输入向量乘以输入嵌入矩阵的多个列来减小所述输入向量的大小。
3.如权利要求1所述的方法,还包括并行激活所述关联存储器设备的至少两行,以在所述相似性分数向量的所有元素上并行激活非线性函数,以提供概率分布向量。
4.如权利要求3所述的方法,其中,所述非线性函数是softmax函数。
5.如权利要求3所述的方法,还包括找到所述概率分布向量中的极值以找到与所述未分类项最相似的分类项,其计算复杂度为o(1)。
6.如权利要求1所述的方法,还包括并行激活所述关联存储器设备的至少两行以在所述相似性分数向量上激活k-最近邻(knn)函数,以提供与所述未分类项最相似的k个分类项。
7.一种用于循环神经网络的系统,所述系统包括:
8.如权利要求7所述的系统,并且还包括所述输入编排器,其用于减小所述信息的尺寸。
9.如权利要求7所述的系统,其中,所述输出处理器还包括线性模块和非线性模块。
10.如权利要求8所述的系统,其中,所述非线性模块实现softmax函数以根据所述相似性分数的向量来创建概率分布向量。
11.如权利要求10所述的系统,还包括极值查找器,其用于在所述概率分布向量中找到极值。
12.如权利要求8所述的系...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。