当前位置: 首页 > 专利查询>之江实验室专利>正文

面向FeFET存储阵列的数字识别方法及硬件加速器技术

技术编号:39069568 阅读:32 留言:0更新日期:2023-10-12 20:01
本发明专利技术公开了一种面向FeFET存储阵列的数字识别方法及硬件加速器,包括:状态机,用于控制数据预处理单元和二值神经网络计算模块;数据预处理单元,用于获取输入数据,并转换为二值数据,记为第一信号;二值神经网络计算模块,包括:第一全连接层模块,基于第一信号并根据权重、偏置计算每个神经元的输出信号;激活函数模块,用于对第一全连接层模块中每个神经元的输出信号经激励函数处理后,得到第二信号;第二全连接层模块,基于第二信号并根据权重、偏置计算每个神经元的输出信号;FeFET存储器,用于存储神经网络权重;数据输出单元,用于比较第二全连接层模块中每个神经元的输出信号,获取识别结果。获取识别结果。获取识别结果。

【技术实现步骤摘要】
面向FeFET存储阵列的数字识别方法及硬件加速器


[0001]本专利技术涉及数字识别
,特别涉及一种面向FeFET存储阵列的手写字识别方法及硬件加速器。

技术介绍

[0002]目前商用的电荷型铁电存储器虽然可以实现非易失性存储,但是由于其基于电荷的破坏性的读取方式,读取之后需要重新写入,极大地限制了其后续的发展和应用。于是,人们将研究的重点方向转变为在具有非易失且非破坏性读取的铁电场效应晶体管(FeFET),并在这一领域开展了大量的研究,然而仍然存在许多亟待解决的问题,同时FeFET的应用场景仍不明确。
[0003]二值神经网络BNN(Binary Neural Network)是一种仅使用+1和

1两个值来表示权重和激励的神经网络,相比于全精度的神经网络,它可以用同或这样极简单的组合代替浮点的乘累加来实现卷积操作,从而节省了大量的内存和计算,大大方便了模型在资源受限设备上的部署。但同时,由于二值所能表达的信息量有限,所以BNN在模型精度方面一直都是远低于全精度模型,虽然最近的研究如MeliusNet,IRNe本文档来自技高网...

【技术保护点】

【技术特征摘要】
1.一种面向FeFET存储阵列的硬件加速器,其特征在于,包括:状态机,用于发送使能指令以控制数据预处理单元和二值神经网络计算模块;数据预处理单元,用于获取输入数据,并将输入数据转换为二值数据,记为第一信号;二值神经网络计算模块,包括依次连接的第一全连接层模块、激活函数模块、第二全连接层模块;其中,第一全连接层模块,基于第一信号根据第一全连接层对应神经网络权重与偏置计算第一全连接层模块中每个神经元的输出信号;激活函数模块,用于对第一全连接层模块中每个神经元的输出信号经归一化以及激励函数处理后,得到第二信号;第二全连接层模块,基于第二信号根据第二全连接层神经网络对应的权重计算第二全连接层模块中每个神经元的输出信号;FeFET存储器,用于存储第一全连接层和第二全连接层对应的神经网络权重;数据输出单元,用于比较第二全连接层模块中每个神经元的输出信号,将最大输出值对应的神经元序号作为识别结果。2.根据权利要求1所述的一种面向FeFET存储阵列的硬件加速器,其特征在于,数据预处理单元包括按流水线结构布置的两个选择器。3.根据权利要求1所述的一种面向FeFET存储阵列的硬件加速器,其特征在于,二值神经网络计算模块包括:计算第一全连接层模块中每个神经元的输出信号;其中,第一全连接层模块中单个神经元的输出信号的计算过程包括:获取第一信号,并将第一信号进行缓存;从FeFET存储器中获取第一全连接层对应的神经网络权重;通过累加器计算第一信号与第一全连接层对应的神经网络权重所有乘积之和,再叠加第一偏置量,得到单个神经元的输出信号;对第一全连接层模块中每个神经元的输出信号经激励函数处理;计算第二全连接层模块中每个神经元的输出信号;其中,第二全连接层模块中单个神经元的输出信号的计算过程包括:获取第二信号,并将第二信号进行缓存;从FeFET存储器中获取第二全连接层对应的神经网络权重;通过累加器计算第二信号与第二全连接层对应的神经网络权重所有乘积之和,得到单个神经元的输出信号。4.根据权利要求1所述的一种面向FeFET存储阵列的硬件加速器,其特征在于,所述数据输出单元基于Softmax函数实现。5.根据权利要求1或3所述的一种面向FeFET存储阵列的硬件加速器,其特征在于,所述...

【专利技术属性】
技术研发人员:任嵩楠李宇航闫力胡塘顾佳妮玉虓李相迪韩根全
申请(专利权)人:之江实验室
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1