【技术实现步骤摘要】
神经网络模型编译方法、设备及存储介质
[0001]本申请涉及神经网络模型编译方法、设备及存储介质,属于计算机
技术介绍
[0002]深度学习在语音识别、图像识别等领域取得很多突破,现有的神经网络模型需要用更短的时间、更低功耗完成运算,给深度学习计算芯片提出了更高的要求。因此,需要将神经网络模型在特定领域架构芯片(Domain Specific Architecture,DSA)上的编译部署。
[0003]传统的神经网络模型编译方法,包括:将特定领域架构芯片(Domain Specific Architecture,DSA)指令融入神经网络编译器(Tensor Virtual Machin,TVM)框架内,从而编译出神经网络模型指令。
[0004]然而,神经网络模型的发展迅速,其迭代的速度远超过DSA芯片迭代速度,因此,在很多情况下,存在DSA芯片无法完整支持整个神经网络模型的运算的问题。
技术实现思路
[0005]本申请提供了神经网络模型编译方法、设备及存储介质,可以解决DSA芯片无 ...
【技术保护点】
【技术特征摘要】
1.一种神经网络模型编译方法,其特征在于,所述方法包括:将待编译神经网络模型转换为神经网络算子;对所述神经网络算子进行划分,得到第一芯片对应的第一算子和第二芯片对应的第二算子;分别将所述第一算子和所述第二算子转换为第一中间表示和第二中间表示;分别将所述第一中间表示和所述第二中间表示转换为第一计算函数和第二计算函数;将所述第一计算函数和所述第二计算函数组合后,编译链接为计算库。2.根据权利要求1所述的方法,其特征在于,所述神经网络算子的数量为N个,其中,所述N为大于0的整数;对所述神经网络算子进行划分,得到第一芯片对应的第一算子和第二芯片对应的第二算子,包括:获取所述第一芯片对应的第一算子集合;所述第一算子集合中包括所述第一芯片对应的可执行算子;确定所述第一算子集合是否包括第M个神经网络算子;其中,所述M为大于0、且小于或等于所述N的整数;在所述第一算子集合中包括所述第M个神经网络算子的情况下,将所述第M个神经网络算子确定为所述第一算子;确定所述M是否小于所述N;在所述M小于所述N的情况下,令M=M+1;执行所述确定所述第一算子集合是否包括第M个神经网络算子的步骤。3.根据权利要求2所述的方法,其特征在于,在所第一算子集合中不包括所述第M个神经网络算子的情况下,将所述第M个神经网络算子确定为所述第二算子;确定所述M是否小于所述N;在所述M小于所述N的情况下,令M=M+1;执行所述确定所述第一算子集合是否包括第M个神经网络算子的步骤。4.根据权利要求1所述的方法,其特征在于,所述神经网络算子的数量为N个;其中,所述N为大于0的整数;所述对所述神经网络算子进行划分,得到第一芯片对应的第一算子和第二芯片对应的第二算子,包括:确定所述第一芯片执行第M个神经网络算子的执行效率是否大于或等于所述第二芯片执行所述第M个神经网络算子的执行效率;其中,所述M为大于0、且小于或等于所述N的整数;在所述第一芯片对应的执行效率大于或等于所述第二芯片的执行效率的情况下,将所述第M个神经网络算子确定为所述第一算子;确定所述M是否小于所述N;在所...
【专利技术属性】
技术研发人员:孙金周,石开宇,王硕,薛峰,
申请(专利权)人:思必驰科技股份有限公司,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。