【技术实现步骤摘要】
集成学习网络流量预测方法、系统、设备、终端、介质
[0001]本专利技术属于网络管理
,尤其涉及一种集成学习网络流量预测方法、系统、设备、终端、介质。
技术介绍
[0002]目前,随着网络的迅速发展,网络上承载的业务应用日益丰富,人们生活与移动网络之间的关系逐渐紧密,使用网络流量的用户出现逐年增长的态势。于是网络管理的一个重要方面就是网络流量的实时检测,能够有效掌握网络流量信息、提高网络的运行速度和利用率。通过网络流量预测可以解决流量过载、网络拥塞、网络崩溃等问题。不断优化网络结构、提高网络性能,高精度的网络流量预测尤为重要。
[0003]快速增长的用户需求和网络规模,使网络流量的使用逐渐增多,在建立更多基站的同时提高网络运营商的数据处理能力,从而进行精准的网络流量预测。但是网络流量的数据量庞大,在网络流量数据集中,会出现有端口样本点天数不连续的情况发生,出现这种情况的原因是新加入的端口路由、设备故障维修暂停服务等等。因此需要对数据集进行初步筛选,剔除掉不连续的端口样本,类似于此类影响网络流量预测的因素有很多。传统的网络流量预测已经不能适应网络规模的迅速发展以及这种复杂的数据变化。基于研究近年来国内外的研究现状,对网络流量预测相关文献进行充分分析,发现传统的网络流量预测方法对如今多影响因素的流量数据存在预测精度低等问题。
[0004](1)国内外研究网络流量预测方法的分类
[0005]从常用的流量预测模型角度分类,可分为基于神经网络和基于灰色模型的。神经网络主要通过调节内部大量节点之间相 ...
【技术保护点】
【技术特征摘要】
1.一种集成学习网络流量预测方法,其特征在于,所述集成学习网络流量预测方法包括:基于序列到序列Seq
‑
to
‑
Seq的框架思想,分别用卷积神经网络与GRU门控单元对网络流量数据进行空间与时间的建模,空间模型中使用到的残差神经网络ResNet与批归一化技术BatchNorm,时间模型中使用的注意力机制Attention;构建基于多层感知机的集成学习网络流量预测模型;获得空间和时间特征编码;基于集成学习思想,通过多层感知机将空间与时间特征进行集成学习;得到集成学习的时空特征后,将所述时空特征输入到基于GUR门控单元的解码部分得出预测结果;加入注意力机制和Teacher
‑
Forcing机制,最后确定基于多层感知机的集成学习网络流量预测模型框架结构。2.如权利要求1所述集成学习网络流量预测方法,其特征在于,所述集成学习网络流量预测方法包括以下步骤:步骤一,进行基于时间与空间的网络流量预测模型的构建;步骤二,确定基于多层感知机的集成学习网络流量预测模型框架结构;步骤三,进行基于多层感知机集成学习的网络流量时空建模,通过基于多层感知机的集成学习网络流量预测模型得出预测结果。3.如权利要求2所述集成学习网络流量预测方法,其特征在于,步骤一中,所述基于时间与空间的网络流量预测模型构建,包括:(1)确定网络流量的空间与时间依赖性
①
数据的空间依赖性针对具有一定城区居住特性的数据格式,用于表明某个城市不同居民流量使用情况,通过遍布在城市的基站进行流量的转发与发送;在网络流量预测问题中,基站的空间分布与欧几里得空间非常相似,所有流量的输出点与汇入点呈现一种网状分布;
②
数据的时间依赖性网络流量数据随时间的变化是非线性的、非平稳的;其中,2月份与10月份流量是所有月份流量中最高的两个月;(2)基于卷积神经网络的空间依赖建模针对数据对于空间的依赖性,提出卷积神经网络CNNS建模;通过卷积神经网络提取数据之间的空间信息,采取残差神经网络;对于序列数据,卷积神经网络CNN对于输入有不同的处理;输入样本定义为[M,C,N],其中M表示输入的样本数,N表示输入样本的特征维度,C设置为1,表示一维数据;样本通过一个一维卷积网络的数据转换,并将其输出通道数设置为城市基站的数量120个,得到数据格式为[M,120,N];将输入样本格式变为[M,120,N,1],提取到每个基站的空间特征信息;最后交给二维卷积神经网络做空间特征提取工作;采取金典的ResNet50网络,其级参数说明如下:1.ZEROPAD:填充矩阵(3,3),3行3列的零填充;即原始输入的数据矩阵为(2,2)大小,填充后大小为(5,5);多出部分全部为零;2.CONV块:64个卷积核大小为(7,7),卷积步长为(2,2)的二维卷积;3.BatchNorm块:批规范化;
4.ReLU:Relu激活函数,公式定义如下:5.MAXPOOL、AVGPOOL块:最大池化层,大小(3,3),步长(2,2);平均池化,大小(2,2),步长(1,1);6.CONVBLOCK块:将前几层的x通过一个短“路径”于其前一层的结果进行矩阵相加操作,其中会经历一个二维卷积操作与批量归一化操作把数据大小缩放到[
‑
1,1]区间,最后经过一个Relu激活函数输出;7.IDBLOCK x n块:x通过一个“短路径”直接与其前一层的输出结果进行矩阵相加操作;n代表多个相同的IDBLOCK块链接在一起;8.Flatten块:将输入展平为一维数据;大小为(M,
‑
1),M表示样本数,
‑
1表示输入样本矩阵数据综合;9.FC块:全连接层,大小为(H,N),H表示上一层输入维度,N表示所需预测数据输出维度;残差神经网络ResNet用于解决深度神经网络而出现的“跳跃链接”技术;ResNet网络表现良好的原因总结如下:假设有一个较深的神经网络,其输入为x,输出为a
l
;加入一个残差块结构,网络中的激活函数均为Relu激活函数,即所有的输出均大于等于零;BigRNN为深度神经网络,Layer1、Layer2为额外添加的残差块网络假设Layer2未经过激活函数的输出未z
l+2
,则输出a
l+2
的公式定义如下:a
l+2
=g(z
l+2
+a
l
);其中,g表示Relu激活函数;经扩展公式变为:a
l+2
=g(w
l+2
x+b
l+2
+a
l
);其中,w
l+2
、b
l+2
为Layer2层的权重与偏执;如果w
l+2
=0,同时b
l+2
=0,则a
l+2
将等于a
l
,加入残差块后网络的性能并未发生改变;假设在未经过批归一化的神经网路的输出为z
i
,其中i=1,2,3......n表示有n个样本数,表示经过批归一化的输出结果,计算公式定义如下:计算公式定义如下:计算公式定义如下:计算公式定义如下:其中,ε表示一个不小于零的极小数,η、β是通过神经网络学习得出的参数;假设神经网络的输入为x
t
,选择的批量大小为γ,其中0<γ≤m,m为样本总数,则批归一化的数量
以传统的最小批量梯度下降算法为例η、β计算过程如下:1.For t=1,2,3
……
n;2.在所有x
t
上进行前向传播;3.使用批归一化技术得到l表示神经网络第l层;4.使用反向传播技术计算各个梯度:dw
l
,dη
l
,dβ
l
;5.更新参数:w
l
=w
l
‑
αdw
l
,η
l
=η
l
‑
αdη
l
,β
l
=β
l
‑
αdβ
l
,其中α表示学习率;(3)基于门控单元的时间依赖建模针对数据对于时间的依赖性,提出基于GRU门控单元的时间序列建模;模型框架采取的是序列到序列Seq2Seq框架,其中编码器部分采用双向GRU单元,解码器部分采取单项GRU单元;在解码器进行解码之前,添加注意力机制;在编码器部分中,初始是a<0>为零向量矩阵,Bi
‑
GRU表示双向GRU单元其输出为2倍大小的单向GRU单元输出,其中分别代表a<1>的正向与反向的输出;Attention表示注意力机制;在解码器部分中,s<0&...
【专利技术属性】
技术研发人员:严灵毓,赵羽茜,王春枝,夏金耀,郑坤鹏,周显敬,
申请(专利权)人:武汉卓尔信息科技有限公司,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。