根据基站能耗调整制造技术

技术编号:39823107 阅读:11 留言:0更新日期:2023-12-22 19:43
本发明专利技术涉及一种根据基站能耗调整

【技术实现步骤摘要】
根据基站能耗调整AI算力硬件计算资源分配的方法和装置


[0001]本专利技术涉及一种根据基站能耗调整
AI
算力硬件计算资源分配的方法以及一种根据基站能耗调整
AI
算力硬件计算资源分配的装置


技术介绍

[0002]5G
基站功耗极大,目前对于基站节能的需求迫切

现有的一类基站节能方案是通过人工智能算法对基站流量的波峰

波谷进行预测,当基站用量较低

即处于较空闲状态时,关闭部分基站,将用户迁移到其他基站,实现节能节点

采用人工智能算法为基站功耗节能的现有流程一般是:采集并接收基站的基础数据
(
例如:连接用户数

忙闲时

与其他基站的位置关系

负载均衡状态
)
,根据这些基础数据采用深度学习
(
例如神经网络算法

图神经网络算法
)
,并在具备计算能力的
CPU、GPU
等计算芯片上对基础数据进行反复多次的计算,最终获得推理判断的结果,是否关停某个基站或者何时开启某个基站

[0003]但是实际操作过程中存在以下的问题:由于基站数量多且对应的数据群巨大,在对基站状态

流量进行计算分析时,
CPU、GPU
计算芯片
/
平台本身需要耗费较多的时间对海量数据进行反复计算,在此过程中也会耗费大量的电力及能源

因此有可能出现能效倒挂的情况,即耗费了较多的能源

能耗在
CPU、GPU
的人工智能计算上,例如采用某种高精度算法每分钟耗费7个碳资源,全天约消耗1万多的碳资源

而最后通过人工智能算法计算得出的基站操控结论是在晚上1‑5时

共4小时关闭
100
个基站,每个基站每小时可节约碳资源
30
个,关停基站处理的信令转嫁到其他
50
个基站需要多增加
10
个碳资源,那么4个小时共节约
4*(30*100

50*10)

10000
个碳资源

这样看来采用人工智能计算基站关停策略所耗费的碳资源反而比关闭基站节约的碳资源多或者差不多持平,这样并没有起到节约总体功耗的效果

[0004]根据文献

电子发烧友网
(elecfans.com)》
,预计到
2025
年,全国数据中心总耗电量占比将达到
4.05
%,再根据文献
《5G
基站究竟有多耗电?预计将占全社会用电量的
2.1

(baidu.com)》
,到
2026
年,
5G
基站耗电量占全社会用电量的
2.1


由此可见数据中心耗电量与
5G
基站耗电量在数量级上相当,为了节约
5G
基站能耗而给数据计算硬件增加计算任务及能耗,可能对于运营商来说总体能耗成本在特殊情况下有可能不降反增

因此在对
5G
基站节能进行
AI
人工智能计算时,需要对总体能耗进行管理

[0005]影响
CPU、GPU
计算芯片
/
平台资源能耗的因素有多种:例如原始数据的大小
(
数据量越大能耗越高
)
,多个
GPU/CPU
之间分布式计算过程中相互交互

通信的能耗,深度神经网络计算过程中迭代的次数
、Epoch、Batch_Size
,并行运算任务的个数等因素

[0006]因此在开发人员开发算法时,原始数据量大

迭代次数多

多个
GPU
并行运算时频繁交互虽然会使得最终的预测结果准确率提升,但是这样耗时多,
CPU/GPU
的能耗也大幅提升

现有技术在对基站海量数据进行计算

预判分析时,同时训练的数据越多越好

迭代次数越多越好

或是不间断地计算基站关停策略

方案越细致越好,都是没有考虑大型数据计算时硬件资源例如
CPU/GPU
所耗费巨大的能耗,再加上为服务器进行散热,消耗的能源
(

如碳资源
)
可能比基站关停节约的能源更多

[0007]因此,急需对
CPU/GPU
进行智能管理,对以上参数
(
数据量大小分批

迭代次数

多个并行计算硬件之间的通信交互
)
进行一定的控制,使得人工智能计算过程中的能耗尽量小,这样与基站能耗节约的碳资源综合考虑,使总体碳资源消耗最低


技术实现思路

[0008]因此,本专利技术的目的在于,提供一种根据基站能耗调整
AI
算力硬件计算资源分配的方法以及一种根据基站能耗调整
AI
算力硬件计算资源分配的装置,借助其能够提前评估
AI
算力硬件计算资源的预计计算能耗是否反而高于基站的预计节约能耗,并进一步评估基站的预计节约能耗与计算过程预计消耗的能耗之间的差值

比例等,通过这些因素对训练过程中的
AI
算力硬件计算资源进行合理分配和调整

[0009]根据第一方面,本专利技术提出一种根据基站能耗调整
AI
算力硬件计算资源分配的方法,所述方法包括:
[0010]步骤
S1
:根据
AI
算力硬件计算资源的单位时间计算能耗函数以及计算耗时函数,获得计算能耗取得最小值时的
AI
算法训练时的训练参数,将所述最小值设为
AI
算法训练时该
AI
算力硬件计算资源的预计计算能耗;
[0011]步骤
S2
:统计各个基站的单位时间能耗,并根据基站负载均衡预估关停基站的预计节约能耗;
[0012]步骤
S3
:根据所述预计计算能耗和所述预计节约能耗,判断是否进行
AI
算法训练或更改所述训练参数,其中
AI
算法训练用于计算基站关停策略

[0013]根据本专利技术,可以综合考虑基站节约能耗
、CPU/GPU
散热能耗
、<本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.
一种根据基站能耗调整
AI
算力硬件计算资源分配的方法,所述方法包括:步骤
S1
:根据
AI
算力硬件计算资源的单位时间计算能耗函数以及计算耗时函数,获得计算能耗取得最小值时的
AI
算法训练时的训练参数,将所述最小值设为
AI
算法训练时该
AI
算力硬件计算资源的预计计算能耗;步骤
S2
:统计各个基站的单位时间能耗,并根据基站负载均衡预估关停基站的预计节约能耗;步骤
S3
:根据所述预计计算能耗和所述预计节约能耗,判断是否进行
AI
算法训练或更改所述训练参数,其中
AI
算法训练用于计算基站关停策略
。2.
根据权利要求1所述的方法,其特征在于,所述单位时间计算能耗函数
H
和计算耗时函数
T

AI
算法训练时的训练参数以及计算的数据量相关,基站上报数据,在步骤
S1
中根据所述单位时间计算能耗函数
H、
计算耗时函数
T
和上报的所述数据的数据量获得计算能耗
U
取得最小值时的训练参数,在步骤
S2
中根据统计的单位时间能耗以及上报的所述数据预估所述预计节约能耗
。3.
根据权利要求2所述的方法,其特征在于,仅负载均衡低于第一阈值的目标基站上报数据
。4.
根据权利要求1所述的方法,其特征在于,在步骤
S3
中,判断所述预计节约能耗与所述预计计算能耗是否满足以下条件:条件一:预计节约能耗>预计计算能耗,条件二:预计节约能耗
/
预计计算能耗>第二阈值,如果两个条件全部满足,则使用所述训练参数进行
AI
算法训练,并根据计算出的基站关停策略关停基站,如果不满足两个条件中的至少一个条件,则不进行
AI
算法训练,或者更改所述训练参数
。5.
根据权利要求1所述的方法,其特征在于,根据历史数据获得单位时间计算能耗函数
H
和计算耗时函数
T
,所述历史数据包含关于
AI
算力硬件计算资源的单位时间计算能耗

计算耗时

训练参数

计算的数据量及其对应关系的数据
。6.
根据权利要求1所述的方法,其特征在于,所述训练参数包括下列参数中的至少一个:待计算的数据量的拆分方案,硬件计算资源的分配方案,
ResNet
层数,
Batch Size
,迭代的次数

每次计算的
Epoch
数量,多个并行计算硬件之间的通信交互方案
。7.
根据权利要求1所述的方法,其特征在于,更改训练参数包括以下步骤:步骤
S4
:构建基站之间的网络拓扑结构;步骤
S5
:对基站进行类别划分,将同一个
AMF
链接的多个基站在网络拓扑结构上分为
X
类,在同一时段内仅留存并计算同一类基站上报的数据,其中
X
的数量与负载均衡低于第一阈值的目标基站的数量成正比,与预计节约能耗
/
预计计算能耗的比值成反比

【专利技术属性】
技术研发人员:王鑫程新洲高洁李洁郝若晶
申请(专利权)人:中国联合网络通信集团有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1