一种基于多任务学习的ET-BERT流量分类方法、存储介质及设备技术

技术编号:37676855 阅读:58 留言:0更新日期:2023-05-26 04:42
本发明专利技术公开了一种基于多任务学习的ET

【技术实现步骤摘要】
一种基于多任务学习的ET

BERT流量分类方法、存储介质及设备


[0001]本专利技术涉及深度学习、网络流量分析和网络空间安全应用的
,具体涉及一种基于多任务学习的ET

BERT流量分类方法、存储介质及设备。

技术介绍

[0002]网络流量分类在当今Internet中有着广泛的应用,如资源分配、QoS提供、ISP计费、异常检测等。这些方法依赖于人类劳动来不断地在未加密的有效载荷中寻找模式或匹配端口号。由于效率低和准确性差,在经典机器学习算法的基础上出现了新的方法,如随机森林(RF)和K

最近邻(KNN)。
[0003]几年来,经典的机器学习算法在流量分类任务中实现了最先进的准确性。但是,这些相对简单的方法无法捕获当今Internet流量中存在的更复杂的模式,因此它们的准确性已经下降。最近,深度学习模型在流量分类方面取得了最先进的性能。它们学习复杂模式和执行自动特征提取的能力使它们成为流量分类的理想选择。
[0004]尽管深度学习方法可以实现很高的准确性,但它们需要大量带标签的训练数据。在网络流量分类任务中,标注是一项耗时且繁琐的工作。为了正确标记每个流,研究人员通常隔离且在具有最小背景流量的受控环境中捕获每个类的流。这个过程既费时又费力。此外,在受控环境中观察到的流量模式可能与实际流量有很大不同,这使得推断不准确。

技术实现思路

[0005]为了克服上述技术缺陷,本专利技术提供一种基于多任务学习的ET

>BERT流量分类方法、存储介质及设备,其能减轻网络流量分类任务中对大量标记训练样本的需求。
[0006]为了解决上述问题,本专利技术按以下技术方案予以实现:
[0007]第一方面,本专利技术提供基于多任务学习的ET

BERT流量分类方法,包括步骤:
[0008]获取流量数据集,并对流量数据集进行预处理;
[0009]获取数据集的时间序列特征;
[0010]根据所述时间序列特征,将预测带宽和持续时间作为辅助任务,对ET

BERT模型预训练;
[0011]获取带宽和持续时间分频器的最佳值,并将所述最佳值转换为令牌进行批处理优化和Adam优化器进行训练;
[0012]对预训练的ET

BERT模型中参数进行微调,采用微调参数后的ET

BERT模型进行主任务流量类别预测。
[0013]作为上述方案的改进,所述对ET

BERT模型预训练,还包括将流量类softmax layer的输入乘以掩码向量。
[0014]作为上述方案的改进,所述获取带宽和持续时间分频器的最佳值包括步骤:
[0015]将带宽和持续时间值分为五类,并找到每个类的平均持续时间;
[0016]将带宽每个类的平均值从高到底排序,得到每两个连续带宽平均值之间的带宽中间点,所述带宽中间点为带宽数据集获得的最佳值;
[0017]将持续时间每个类的平均值从高到底排序,得到两个连续持续时间平均值之间的持续时间中间点,所述持续时间中间点为持续时间数据集获得的最佳值。
[0018]作为上述方案的改进,采用Token3Embedding嵌入方法所述将所述最佳值转换为令牌进行批处理优化和Adam优化器进行训练,包括步骤:
[0019]将所述带宽和持续时间分频器的最佳值先转换为十六进制序列,并对序列进行编码;
[0020]采用字节对编码表示令牌,将令牌的特殊标记添加进编码序列中。
[0021]作为上述方案的改进,所述时间序列特征为数据包的数据包长度、到达时间和有效载荷。
[0022]作为上述方案的改进,所述ET

BERT模型中多任务学习的调参公式表示为:
[0023][0024]其中,相当于普通线性回归里面的权重,l为损失函数的权重λ为主流量类别预测任务重要性的权重,ρ为正则化权重因子,减小模型系数,减小模型复杂度,防止过拟合现象W=[w1,w2,...,w
k
]nxk
是多任务学习下的权重矩阵,w
i
=[W
i,1
,W
i,2
,

,W
i,k
],A
i
代表第ii个数据样本的输入,和代表带宽、持续时间和流量类别预测任务的相应输出,带宽、持续时间和流量类别预测任务分别用B,D和T表示。
[0025]第二方面,本专利技术提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现如第一方面所述的基于多任务学习的ET

BERT流量分类方法。
[0026]第三方面,本专利技术提供一种设备,所述设备包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、至少一段程序、代码集或指令集由所述处理器加载并执行以实现如第一方面所述的基于多任务学习的ET

BERT流量分类方法。
[0027]与现有技术相比,本专利技术具有以下有益效果:
[0028]本申请根据获取的时间序列特征,将带宽和持续时间作为辅助任务对ET

BERT模型预训练,并微调ET

BERT模型参数,用ET

BERT模型进行主任务流量类别预测,可改善流量类别预测并且减少人工来标记数据集目的,减轻网络流量分类任务中对大量标记训练样本的需求。
附图说明
[0029]下面结合附图对本专利技术的具体实施方式作进一步详细的说明,其中:
[0030]图1为本申请一个实施例中基于多任务学习的ET

BERT流量分类方法的流程示意图;
[0031]图2为本申请一个实施例中多任务学习原理图;
[0032]图3为本申请一个实施例中所述步骤S4的流程示意图;
[0033]图4为本申请一个实施例中基于多任务学习框架下的ET

BERT模型体系结构图。
具体实施方式
[0034]以下结合附图对本专利技术的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本专利技术,并不用于限定本专利技术。
[0035]需要注意的是,本文中所提及的序号,如S1、S2
……
,该些序号仅仅是作为步骤与步骤之间的区分,并不代表该些步骤必须要按照序号的顺序严格执行。
[0036]本专利技术提出一种基于多任务学习框架下的ET

BERT流量分类方法,旨在假设多个学习任务不是完全独立的,并且多个辅助任务通过硬参数共享可以促进另一个任务的学习,从而在执行主任务时结合来自Transformers的双向编码器(ET
‑<本文档来自技高网...

【技术保护点】

【技术特征摘要】
1.一种基于多任务学习的ET

BERT流量分类方法,其特征在于,包括步骤:获取流量数据集,并对流量数据集进行预处理;获取数据集的时间序列特征;根据所述时间序列特征,将预测带宽和持续时间作为辅助任务,对ET

BERT模型预训练;获取带宽和持续时间分频器的最佳值,并将所述最佳值转换为令牌进行批处理优化和Adam优化器进行训练;对预训练的ET

BERT模型中参数进行微调,采用微调参数后的ET

BERT模型进行主任务流量类别预测。2.根据权利要求1所述的基于多任务学习的ET

BERT流量分类方法,其特征在于,所述对ET

BERT模型预训练,还包括将流量类softmax layer的输入乘以掩码向量。3.根据权利要求1所述的基于多任务学习的ET

BERT流量分类方法,其特征在于,所述获取带宽和持续时间分频器的最佳值包括步骤:将带宽和持续时间值分为五类,并找到每个类的平均持续时间;将带宽每个类的平均值从高到底排序,得到每两个连续带宽平均值之间的带宽中间点,所述带宽中间点为带宽数据集获得的最佳值;将持续时间每个类的平均值从高到底排序,得到两个连续持续时间平均值之间的持续时间中间点,所述持续时间中间点为持续时间数据集获得的最佳值。4.根据权利要求1所述的基于多任务学习的ET

BERT流量分类方法,其特征在于,采用Token3Embedding嵌入方法所述将所述最佳值转换为令牌进行批处理优化和Adam优化器进行训练,包括步骤:将所述带宽和持续时间分频器的最佳值先转换为十六进制序列,并对序列进行编码;采用字节对编码表示令牌,将令牌的特殊标记添加进编...

【专利技术属性】
技术研发人员:刘兰余永杰吴亚峰惠占发陈桂铭
申请(专利权)人:广东技术师范大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1