当前位置: 首页 > 专利查询>吉林大学专利>正文

卷积神经网络的任务调度方法、系统、设备及存储介质技术方案

技术编号:35276215 阅读:16 留言:0更新日期:2022-10-19 10:56
本申请公开了一种卷积神经网络的任务调度方法、系统、设备及存储介质,所属的技术领域为机器学习技术领域。卷积神经网络的任务调度方法,包括:接收待处理图像,并确定所述待处理图像对应的网络任务;根据所述卷积神经网络所在脉动阵列的数据流方式构建性能模型;利用所述性能模型计算所述脉动阵列中每一加速器处理每一所述网络任务的时延信息,根据所述时延信息将所有所述网络任务分配至对应的加速器,以便得到所述卷积神经网络对所述待处理图像的图像处理结果。本申请能够降低卷积神经网络的对网络任务的响应时间,提高图像处理效率。提高图像处理效率。提高图像处理效率。

【技术实现步骤摘要】
卷积神经网络的任务调度方法、系统、设备及存储介质


[0001]本申请涉及机器学习
,特别涉及一种卷积神经网络的任务调度方法、系统、设备及存储介质。

技术介绍

[0002]深度学习现在已经广泛应用于各领域,如计算机视觉、医疗保健、自动驾驶等,随着数据规模的爆炸式增长,深度学习对算力的需求也在急剧增加。传统的通用处理器,例如CPU与GPU等,在处理深度学习任务时算力有限且功耗较大,尤其是访存开销非常严重。近年来,专用的深度学习加速器受到广泛关注,这些加速器通常采用脉动阵列架构,这一架构可以有效实现大规模数据重用,从而避免了频繁访存导致的开销。相关技术中,计算处理任务时延的精准度较低,卷积神经网络的对网络任务的响应时间过长,影响图像处理操作的效率。
[0003]因此,如何降低卷积神经网络的对网络任务的响应时间,提高图像处理效率是本领域技术人员目前需要解决的技术问题。

技术实现思路

[0004]本申请的目的是提供一种卷积神经网络的任务调度方法、一种卷积神经网络的任务调度系统、一种电子设备及一种存储介质,能够降低卷积神经网络的对网络任务的响应时间,提高图像处理效率。
[0005]为解决上述技术问题,本申请提供一种卷积神经网络的任务调度方法,该任务调度方法包括:
[0006]接收待处理图像,并确定所述待处理图像对应的网络任务;
[0007]根据所述卷积神经网络所在脉动阵列的数据流方式构建性能模型;其中,所述数据流方式为权重固定数据流、输入固定数据流或输出固定数据流;
[0008]利用所述性能模型计算所述脉动阵列中每一加速器处理每一所述网络任务的时延信息,根据所述时延信息将所有所述网络任务分配至对应的加速器,以便得到所述卷积神经网络对所述待处理图像的图像处理结果。
[0009]可选的,根据所述卷积神经网络所在脉动阵列的数据流方式构建性能模型,包括:
[0010]根据所述脉动阵列的数据流方式确定卷积层执行时延L
CONV

[0011]根据所述卷积神经网络的输出层大小确定池化层执行时延L
POOL

[0012]确定所述卷积神经网络的缓存时延L
BUF
;其中,所述缓存时延L
BUF
为卷积核缓存不足的总时延、输入缓存不足的总时延和输出缓存不足的总时延的总和;
[0013]根据所述卷积神经网络的总层数h、卷积层数h
CONV
、池化层数h
POOL
、卷积层执行时延L
CONV
、池化层执行时延L
POOL
和缓存时延L
BUF
构建所述性能模型。
[0014]可选的,根据所述脉动阵列的数据流方式确定卷积层执行时延L
CONV
,包括:
[0015]若所述脉动阵列的数据流方式为权重固定数据流,则利用第一公式计算卷积层执
行时延L
CONV

[0016]若所述脉动阵列的数据流方式为输入固定数据流,则利用第二公式计算卷积层执行时延L
CONV

[0017]若所述脉动阵列的数据流方式为输出固定数据流,则利用第三公式计算卷积层执行时延L
CONV

[0018]其中,所述第一公式为L
CONV
=n
t1
×
S1,S1=W
o
×
H
o
×
r1+r2;
[0019]所述第二公式为L
CONV
=n
t2
×
S2,S2=K
×
r1+r2;
[0020]所述第三公式为L
CONV
=n
t3
×
S3,S3=F
CONV
×
F
CONV
×
D
i
×
r1+r2;
[0021]F
CONV
表示卷积核的高度,D
i
表示卷积输入层深度,N
r
表示脉动阵列的行数,K表示卷积核数量,N
c
表示脉动阵列的列数,W
o
表示输出层的宽度,H
o
表示输出层的高度,r1表示一次乘加操作的时延,r2表示并行任务启动的时延。
[0022]可选的,所述脉动阵列包括异构的脉动阵列加速器群;
[0023]相应的,根据所述时延信息将所有所述网络任务分配至对应的加速器,包括:
[0024]在约束条件下将所有所述网络任务分配至对应的加速器;其中,所述约束条件为脉动阵列加速器群处理所有所述网络任务的整体时延最小。
[0025]可选的,在根据所述时延信息将所有所述网络任务分配至对应的加速器之后,还包括:
[0026]对所述加速器的任务队列中的网络任务设置优先级分数;
[0027]控制所述加速器按照优先级分数从高到低的顺序处理对应的网络任务;
[0028]在所述加速器处理完一个网络任务后,增加任务队列的所有网络任务的优先级分数。
[0029]可选的,根据所述时延信息将所有所述网络任务分配至对应的加速器之后,还包括:
[0030]判断所述加速器的任务队列中的网络任务是否符合分解标准;其中,所述分解标准为分解所述网络任务后处理所有所述网络任务的整体时延降低;
[0031]若是,则将所述网络任务分解为多个子任务,并将所述子任务作为新的网络任务分配至对应的加速器。
[0032]可选的,在将所述网络任务分解为多个子任务之后,还包括:
[0033]确定所有所述子任务的执行顺序,控制所述脉动阵列按照所述执行顺序逐个处理所述子任务。
[0034]本申请还提供了一种卷积神经网络的任务调度系统,该系统包括:
[0035]任务确认模块,用于接收待处理图像,并确定所述待处理图像对应的网络任务;
[0036]模型构建模块,用于根据所述卷积神经网络所在脉动阵列的数据流方式构建性能模型;其中,所述数据流方式为权重固定数据流、输入固定数据流或输出固定数据流;
[0037]任务处理模块利用所述性能模型计算所述脉动阵列中每一加速器处理每一所述
网络任务的时延信息,根据所述时延信息将所有所述网络任务分配至对应的加速器,以便得到所述卷积神经网络对所述待处理图像的图像处理结果。
[0038]本申请还提供了一种存储介质,其上存储有计算机程序,所述计算机程序执行时实现上述卷积神经网络的任务调度方法执行的步骤。
[0039]本申请还提供了一种电子设备,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器调用所述存储器中的计算机程序时实现上述卷积神经网络的任务调度方法执行的步骤。
[0040]本申请提供了一种卷积神经网络的任务调度方法,包括本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种卷积神经网络的任务调度方法,其特征在于,包括:接收待处理图像,并确定所述待处理图像对应的网络任务;根据所述卷积神经网络所在脉动阵列的数据流方式构建性能模型;其中,所述数据流方式为权重固定数据流、输入固定数据流或输出固定数据流;利用所述性能模型计算所述脉动阵列中每一加速器处理每一所述网络任务的时延信息,根据所述时延信息将所有所述网络任务分配至对应的加速器,以便得到所述卷积神经网络对所述待处理图像的图像处理结果。2.根据权利要求1所述卷积神经网络的任务调度方法,其特征在于,根据所述卷积神经网络所在脉动阵列的数据流方式构建性能模型,包括:根据所述脉动阵列的数据流方式确定卷积层执行时延L
CONV
;根据所述卷积神经网络的输出层大小确定池化层执行时延L
POOL
;确定所述卷积神经网络的缓存时延L
BUF
;其中,所述缓存时延L
BUF
为卷积核缓存不足的总时延、输入缓存不足的总时延和输出缓存不足的总时延的总和;根据所述卷积神经网络的总层数h、卷积层数h
CONV
、池化层数h
POOL
、卷积层执行时延L
CONV
、池化层执行时延L
POOL
和缓存时延L
BUF
构建所述性能模型。3.根据权利要求2所述卷积神经网络的任务调度方法,其特征在于,根据所述脉动阵列的数据流方式确定卷积层执行时延L
CONV
,包括:若所述脉动阵列的数据流方式为权重固定数据流,则利用第一公式计算卷积层执行时延L
CONV
;若所述脉动阵列的数据流方式为输入固定数据流,则利用第二公式计算卷积层执行时延L
CONV
;若所述脉动阵列的数据流方式为输出固定数据流,则利用第三公式计算卷积层执行时延L
CONV
;其中,所述第一公式为S1=W
o
×
H
o
×
r1+r2;所述第二公式为S2=K
×
r1+r2;所述第三公式为L
CONV
=n
t3
×
S3,S3=F
CONV
×
F
CONV
×
D
i
×
r1+r2;F
CONV
表示卷积核的高度,D
i
表示卷...

【专利技术属性】
技术研发人员:阎凯歌宋艳爽谭婧炜佳
申请(专利权)人:吉林大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1