【技术实现步骤摘要】
一种自学习运行时间预测模型的GPU/CPU调度方法及系统
本专利技术涉及大规模异构计算、云计算
,特别涉及一种自学习运行时间预测模型的GPU/CPU调度方法及系统。
技术介绍
随着GPGPU(通用计算图形处理器单元)技术的发展和普及,越来越多的计算集群中使用GPU(图形处理器单元)和CPU(中央处理器单元)进行异构并行计算,解决大规模计算问题,GPU和CPU各有优势,GPU拥有更多的算术计算单元,有更强的浮点数计算能力,更适合大规模的并行计算,而CPU有更多的控制单元,更适合指令的调度和分支处理。现有技术或将CPU和GPU统一成一个整体加载到计算集群中,制作成一种CPU和GPU的混合并行计算方法及装置,在被调度有待处理任务的计算节点中,CPU对调度的待处理任务逐个进行预处理,并在每预处理完一个任务后将预处理之后的任务映射到GPU的显存中;或根据数据流程序各个任务的计算特点以及任务之间的数据通信量大小,将各个任务分配到合适的计算平台上。然而,在某些类型的任务,如图像、视频处理任务中,任务较为统一,重复性强,每次任务的区别在于参与运算的数据和参数的不同,同时,由 ...
【技术保护点】
一种自学习运行时间预测模型的GPU/CPU调度方法,其特征在于,包括:步骤1,对源代码进行预处理,生成与源代码对应的运行状态标识符和程序运行所需要的参数,并存储在XML文件中;步骤2,设置预测函数,根据运行状态标识符返回的在某个阶段程序的运行时间和本阶段设置的参数,计算预测函数回归参数θ并存储在XML文件中;步骤3,当程序被再次调用时,查找与其相对应的XML文件,计算归一化参数,将归一化参数代入预测函数,获取程序本次运行的运行时间预测值,获取程序重新分配到另一个节点所需要的消耗时间,若新分配的消耗时间低于运行时间预测值,则将程序分配给CPU节点。
【技术特征摘要】
1.一种自学习运行时间预测模型的GPU/CPU调度方法,其特征在于,包括:步骤1,对源代码进行预处理,生成与源代码对应的运行状态标识符和程序运行所需要的参数,并存储在XML文件中;步骤2,设置预测函数,根据运行状态标识符返回的在某个阶段程序的运行时间和本阶段设置的参数,计算预测函数回归参数θ并存储在XML文件中;步骤3,当程序被再次调用时,查找与其相对应的XML文件,计算归一化参数,将归一化参数代入预测函数,获取程序本次运行的运行时间预测值,获取程序重新分配到另一个节点所需要的消耗时间,若新分配的消耗时间低于运行时间预测值,则将程序分配给CPU节点。2.如权利要求1所述的自学习运行时间预测模型的GPU/CPU调度方法,其特征在于,所述步骤1中源代码进行预处理包括在进行GPU与CPU内存交换时,产生相应信号,包括拷贝至GPU内存的信号与拷贝至CPU内存的信号。3.如权利要求1所述的自学习运行时间预测模型的GPU/CPU调度方法,其特征在于,所述步骤3通过以下公式生成归一化参数:其中Xi为归一化参数,X′i为运行参数,μ为均值,Si为标准差。4.如权利要求1所述的自学习运行时间预测模型的GPU/CPU调度方法,其特征在于,所述步骤2中将预测函数hθ(X)设定为hθ(X)=θTX,其中,假设程序需要n个参数,预测函数回归参数θ=[θ0θ1…θn]T,X=[1X1…Xn]T,h为运行时间预测值,设计均方误差函数其中,y是某个阶段程序运行的时间,对每一个参数j=0,1,…,n重复计算如下函数,直到以上函数收敛:将最终得到的θ记录在XML文件中。5.如权利要求1所述的自学习运行时间预测模型的GPU/CPU调度方法,其特征在于,所述步骤3中通过以下公式获取程序重新分配到另一个节点所需要的消耗时间:其中,m为程序所需要迁移的文件的大小,v是网络速度的平均值。6.一种自学习运行...
【专利技术属性】
技术研发人员:郝昀超,霍志刚,
申请(专利权)人:中国科学院计算技术研究所,中国科学院国有资产经营有限责任公司,
类型:发明
国别省市:北京,11
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。