面向存内计算的卷积神经网络加速器架构的自动综合方法技术

技术编号:41554646 阅读:20 留言:0更新日期:2024-06-06 23:40
本发明专利技术提供了一种面向存内计算的卷积神经网络加速器的自动综合方法,该方法能够基于卷积神经网络推理任务、存内计算加速器峰值功耗约束、存内计算加速器的硬件参数查找表,采用模拟退火方法得到筛选出在每个参数组合下的卷积神经网络权重复制候选策略,采用遗传方法得到选出性能最优的宏单元映射方案从而获得该方案对应的卷积神经网络权重复制候选策略、存内计算加速器硬件参数组合以及硬件资源分配方案。采用本发明专利技术的方法来生成存内计算加速器架构配置的方案大大减少了架构设计的专业门槛,提高了存内计算加速器设计的效率,节省了专家设计的成本,同时有效丰富了加速器架构配置方案的优化策略以保障存内加速器配置方案的设计质量。

【技术实现步骤摘要】

本专利技术涉及高效计算与自动化设计领域,具体来说,涉及存内计算加速器、卷积神经网络推理以及自动综合领域,更具体来说,涉及一种面向存内计算的卷积神经网络加速器架构的自动综合方法


技术介绍

1、在传统的冯诺依曼架构中,计算与存储分离导致每次操作都需要将数据从存储加载到计算单元中,这为卷积神经网络(convolutional neural networks,cnn)计算带来了大量的能耗和性能损失。然而,与之不同的是,存内计算(processing-in-memory,pim)通过新型非易失性存储器件(non-volatile memory,nvm),例如阻变存储器(resistiverandom-acces s memories,reram)等,将计算与存储单元绑定,有效地减少了加速器架构中的数据访存,缓解了当前“存储墙”带来的性能瓶颈问题。此外,与传统基于cmos的卷积神经网络加速器相比,存内计算加速器用于卷积神经网络的推理可以将能效提高2到3个数量级,具有极大的优化卷积神经病网络推理能效的潜力。

2、现有的用于推理卷积神经网络的存内计算加速器架本文档来自技高网...

【技术保护点】

1.一种面向存内计算的卷积神经网络加速器架构的自动综合方法,所述存内计算加速器包括多个宏单元,所述方法包括:

2.根据权利要求1所述的方法,其特征在于,所述非易失性存储器的多个设计参数包括:非易失性存储器消耗的功耗占存内计算加速器峰值功耗约束的比例、非易失性存储器单元的精度以及非易失性存储器阵列的尺寸,且在所述步骤S2中,采用如下方式确定在存内计算加速器中每个参数组合对应的非易失性存储器的阵列数量:

3.根据权利要求2所述的方法,其特征在于,卷积神经网络推理任务中包括:卷积神经网络中各网络层的权重、输入通道数、输出通道数以及权重核尺寸,且在所述步骤S3中,所述第一...

【技术特征摘要】

1.一种面向存内计算的卷积神经网络加速器架构的自动综合方法,所述存内计算加速器包括多个宏单元,所述方法包括:

2.根据权利要求1所述的方法,其特征在于,所述非易失性存储器的多个设计参数包括:非易失性存储器消耗的功耗占存内计算加速器峰值功耗约束的比例、非易失性存储器单元的精度以及非易失性存储器阵列的尺寸,且在所述步骤s2中,采用如下方式确定在存内计算加速器中每个参数组合对应的非易失性存储器的阵列数量:

3.根据权利要求2所述的方法,其特征在于,卷积神经网络推理任务中包括:卷积神经网络中各网络层的权重、输入通道数、输出通道数以及权重核尺寸,且在所述步骤s3中,所述第一预设方法为模拟退火方法,并采用模拟退火方法按照如下方式筛选出在每个参数组合下对应的第一预设数量的卷积神经网络权重复制候选策略:

4.根据权利要求2所述的方法,其特征在于,在所述步骤s4中,采用如下方式编译生成每个卷积神经网络权重复制候选策略对应的卷积神经网络推理数据流有向无环图:

5.根据权利要求4所述的方法,其特征在于,在所述步骤s6中,所述第二预设方法为遗传方法,并采用遗传方法按照如下方...

【专利技术属性】
技术研发人员:李宛茜陈晓明韩银和
申请(专利权)人:中国科学院计算技术研究所
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1