CNN加速器和电子设备制造技术

技术编号:26764915 阅读:45 留言:0更新日期:2020-12-18 23:41
本发明专利技术提供了一种CNN加速器和电子设备,所述CNN加速器包括设置在MCU内核中的CNN训练器、设置在FPGA内核中的CNN引擎器和CNN存储器,可以将MCU内核的数据处理能力和FPGA内核的并行处理能力及可编程能力相结合,由此提高了CNN加速器的数据处理速度和并行处理能力,能够兼容卷积神经网络的训练阶段和推断阶段。且CNN训练器获得的训练权重值直接传输到CNN引擎器,可以随时优化CNN引擎器中各层级间的权重分布,降低推断错误率。此外,使用FPGA内核的存储资源作为CNN存储器,节省了CNN引擎器内各执行单元与CNN存储器之间的读写时间,在一定的存储容量下保证了数据的读写速率,从而加快了CNN加速器整体的运算效率。

【技术实现步骤摘要】
CNN加速器和电子设备
本专利技术涉及卷积神经网络
,特别涉及一种CNN加速器和电子设备。
技术介绍
人工智能系统(AI)是研究人类智能活动的规律,构造具有一定智能的人工系统,研究如何让计算机去完成以往需要人的智力才能胜任的工作,也就是研究如何应用计算机的软硬件来模拟人类某些智能行为的基本理论、方法和技术。卷积神经网络(CNN)与普通神经网络非常相似,都是由具有可学习的权重和偏置常量的神经元组成。每个神经元都接收一些输入,并做一些卷积运算,输出是每个分类的分数。不同的是卷积神经网络默认输入是图像,可以让我们把特定的性质编码传入网络结构,使得我们的前馈函数更加有效率,并减少了大量参数。卷积神经网络具有权值共享、多卷积核和池化的特性,所以选择运用卷积神经网络进行深度学习的优势在于计算效率高、对特征提取的效果好。现有CNN加速器大多仅用现场可编程门阵列(FPGA内核)单核实现,受限于FPGA内核芯片本身的处理能力(计算和存储)、功耗、成本、体积等,CNN加速器必须降低算法的运算和存储复杂度来满足FPGA内核芯片本身的能力,且通常本文档来自技高网...

【技术保护点】
1.一种CNN加速器,其特征在于,包括:/nCNN训练器,设置于MCU内核中,用于接收训练数据,并对所述训练数据进行卷积神经网络训练,以获得训练权重值;/nCNN引擎器,设置于FPGA内核中并连接所述CNN训练器,用于接收输入数据,并根据所述训练权重值,对自身网络的权重分布进行设置,以对所述输入数据进行推断运算;/nCNN存储器,设置于FPGA内核中并连接所述CNN引擎器,用于存储所述CNN引擎器推断运算过程中的数据。/n

【技术特征摘要】
1.一种CNN加速器,其特征在于,包括:
CNN训练器,设置于MCU内核中,用于接收训练数据,并对所述训练数据进行卷积神经网络训练,以获得训练权重值;
CNN引擎器,设置于FPGA内核中并连接所述CNN训练器,用于接收输入数据,并根据所述训练权重值,对自身网络的权重分布进行设置,以对所述输入数据进行推断运算;
CNN存储器,设置于FPGA内核中并连接所述CNN引擎器,用于存储所述CNN引擎器推断运算过程中的数据。


2.如权利要求1所述的CNN加速器,其特征在于,所述MCU内核和所述FPGA内核集成在同一片上系统中,所述CNN训练器训练过程获得的训练权重值,通过所述MCU内核和FPGA内核之间的系统总线直接传输到所述CNN引擎器。


3.如权利要求1所述的CNN加速器,其特征在于,所述CNN训练器主要由所述MCU内核的数据处理电路组成,所述CNN引擎器主要由所述FPGA内核的并行数据处理电路组成。


4.如权利要求1所述的CNN加速器,其特征在于,所述CNN训练器所接收的训练数据包括数据集和单个加标签的数据。


5.如权利要求1或4所述的CNN加速器,其特征在于,所述CNN加速器还包括设置在所述MCU内核中的标签添加器,所述标签添加器用于为所述CNN引擎器的输入数据和/或输出数据添加标签,并将添加标签后的数据作为所述训练数据,再次传送到所述CNN训练器中进行卷积神经网络训练,以更新所述CNN训练器输出的训练权重值。


6.如权利要求1所述的CNN加速器,其特征在于,所述CNN引擎器包括...

【专利技术属性】
技术研发人员:刘锴宋宁范召杜金凤
申请(专利权)人:广东高云半导体科技股份有限公司
类型:发明
国别省市:广东;44

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1