基于深度强化学习的计算密集型工作负载高能效分配方法组成比例

技术编号:28373039 阅读:37 留言:0更新日期:2021-05-08 00:00
本发明专利技术公开的一种基于深度强化学习的计算密集型工作负载高能效分配方法,旨在解决数据中心同时运行两种类型工作负载的场景下,采用自适应调整并优化参数的机制,高能效分配计算密集型工作负载的问题。本发明专利技术实现的步骤为:生成训练集,构建具有动态性服务器的能耗函数,构建状态动作集合,搭建计算密集型工作负载高能效分配智能体,采用深度强化学习训练智能体,分配数据中心的计算密集型工作负载。本发明专利技术的方法在服务器数量相同的条件下进一步降低了服务器能耗,提高了服务器能效,应用场景更广。

【技术实现步骤摘要】
基于深度强化学习的计算密集型工作负载高能效分配方法
本专利技术属于计算机
,更进一步涉及资源分配
中的一种基于深度强化学习的工作负载分配方法。本专利技术可用于计算服务器组成的数据中心中,实现对计算密集型工作负载的分配,以满足工作负载对计算资源的动态需求,实现数据中心中服务器的以高能效为目标的工作负载有效分配。
技术介绍
数据中心服务器的能耗由计算资源的利用率决定,利用率越高能耗的增长越快,利用率过低又会导致服务器静态能耗的占比过高。工作负载分配可以改变服务器的计算资源利用率,从而调整数据中心中的服务器的能耗。计算密集型工作负载对计算资源的需求量大,运行时间长,对能耗的影响更大。对计算密集型工作负载的有效分配可以使得服务器的计算资源利用率更加均衡,避免出现部分服务器利用率过高和过低的情况,从而降低服务器能耗。目前,常用的基于启发式算法的工作负载分配,由于缺乏与服务器环境状态信息以及工作负载信息的交互,忽视了分配后服务器状态的变化所带来的能耗方面的影响,缺乏自适应调整并优化模型参数的机制,仅能为特定数据中心环境的工作负载进行分配,无法适本文档来自技高网...

【技术保护点】
1.一种基于深度强化学习的计算密集型工作负载高能效分配方法,其特征在于,构建计算密集型工作负载高能效分配智能体,采用深度强化学习训练计算密集型工作负载高能效分配智能体;该方法的步骤包括如下;/n(1)生成训练集:/n将数据中心内计算密集型工作负载的物理核需求数量组成训练集;/n(2)构建动态性服务器的能耗函数:/n(2a)按照下式,计算数据中心中每个服务器在每个时隙的每种计算资源的利用率:/n

【技术特征摘要】
1.一种基于深度强化学习的计算密集型工作负载高能效分配方法,其特征在于,构建计算密集型工作负载高能效分配智能体,采用深度强化学习训练计算密集型工作负载高能效分配智能体;该方法的步骤包括如下;
(1)生成训练集:
将数据中心内计算密集型工作负载的物理核需求数量组成训练集;
(2)构建动态性服务器的能耗函数:
(2a)按照下式,计算数据中心中每个服务器在每个时隙的每种计算资源的利用率:



其中,表示数据中心中第m个服务器在第t个时隙的第c种计算资源的利用率,m∈{1,...,M},M表示数据中心中服务器的总数,t表示数据中心运行的时隙序号,t∈{1,...,T},T表示时隙的总数,T≥100,N表示数据中心内计算密集型工作负载的总数,∑表示求和操作,n表示计算密集型工作负载的序号,an,m(t)表示在第t个时隙第n个计算密集型工作负载在第m个服务器上的分配决策值,an,m(t)∈{0,1},Dn表示第n个计算密集型工作负载所请求的物理核得总数,Nm表示数据中心中第m个服务器在第t个时隙所能提供的最大物理核的总数,vm(t)表示数据中心中第m个服务器在第t个时隙所有常规类型的工作负载对该服务器计算资源的利用率;
(2b)按照下式,构建每个服务器的能耗函数:



其中,Pm(t)表示第m个服务器在第t个时隙的能耗,0≤Pm(t)≤1,Em表示第m个服务器的静态能耗,0<Em≤0.5,α表示取值小于0.5的能耗系数,β表示取值小于1的能耗系数;
(3)构建状态空间集合:
(3a)将数据中心在每个时隙的所有服务器计算资源利用率数值组成的利用率子集合,将每个服务器的能耗数值组成能耗子集合,将每个服务器的空闲物理核数量组成物理核子集合,将每个计算密集型工作负载所请求的物理核数量组成请求子集合,将每个物理服务器的序号组成子集合;
(3b)将五个子集合组成状态动作集合;
(4)构建计算密集型工作负载高能效分配智能体:
(4a)搭建第一全连接网络和第二全连接网络,两个网络的结构相同,均由输入层、第一全连接层和第二全连接层组成,设置输入层的神经元的个数等于状态动作集合中元素的个数,第一全连接层的神经元数量设置为300,采用激活函数tanh实现,第二全连接层的神经元数量设置为1,采用激活函数ReLU实现;
(4b)搭建第三全连接网络和第四全连接网络,两个网络的结构相同,均由输入层、第一全连接层和第二全连接层组成,设置输入层的神经元的个数等于状态动作集合中元素的个数,第一全连接层的神经元数量设置为300,采用激活函数ReLU实现,第二全连接层的神经元数量设置为1,采用激活函数ReLU实现;
(4c)将第一全连接网络网络、第三全连接网络网络、第二全连接网络网络和第四全连接网络网络互相连接成计算密集型工作负载高效能分配智能体;
(5)采用深度强化学习训练计算密集型工作负载高能效分配智能体:
(5a)设定第一和第二全连接网络网络的神经网络权重参数均设置为一个相同的...

【专利技术属性】
技术研发人员:刘伟高振峰李建东
申请(专利权)人:西安电子科技大学
类型:发明
国别省市:陕西;61

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1