System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 一种面向意图驱动数据链网络的自然语言意图转译方法技术_技高网

一种面向意图驱动数据链网络的自然语言意图转译方法技术

技术编号:40027122 阅读:10 留言:0更新日期:2024-01-16 17:40
本发明专利技术公开了一种面向意图驱动数据链网络的自然语言意图转译方法,属于数据链网络技术领域。本发明专利技术实现对用户输入的以自然语言表示的数据链网络意图进行精确转译。本发明专利技术运用Bert+CRF模型进行意图驱动的数据链网络的意图实体识别,采用预训练模型+模型微调的方式,减少了模型训练成本,能够很快完成对模型的参数调整和训练。采用模板匹配的方式将输出的网络意图转换为固定格式的网络配置文件,实现数据链网络意图的转译。

【技术实现步骤摘要】

本专利技术属于数据链网络,特别是涉及一种面向意图驱动数据链网络的自然语言意图转译方法


技术介绍

1、数据链是在传感器、指挥控制系统和武器平台之间,实时传输处理战场态势、指挥控制和战术协同等格式化消息的网络化信息系统。意图驱动的数据链网络通过分析用户意图,将意图转译为相应的数据链网络管理策略,最终实现网络感知和控制策略的自动化部署。意图是意图网络的核心,意图驱动的数据链网络的运行过程都与意图紧密相关。用户只需要描述想要的结果,而不用描述如何实现,系统就可自动地实现用户意图,并能够持续监控网络状态信息,判断用户意图是否实现。意图给出用户期望网络应该达到某种状态的声明,并没有指出如何实现,然而网络在实际运行期间,仍然是按照网络策略进行转发决策、资源分配。因此,需要根据意图中的内容以及当前网络状态将用户意图转化为相应的网络配置策略,这就是意图的转译过程。目前,用户意图的转译主要采用自然语言处理的方法对意图进行处理,对用户意图进行关键字提取、词法分析、语义挖掘等操作,从而获得用户期望的网络运行状态,并使用智能化的方法生成网络策略。

2、随着自然语言理解(natural language understanding,nlp)技术的发展,以序列标注为代表的基于人工智能的意图转译算法受到广泛的关注和应用。序列标注包括分词、词性标注、明明实体识别等子任务。序列标注是对一个一维线性输入序列,为线性序列中的每个元素打上标签集合中的某个标签,本质上是对线性序列中每个元素根据上下文进行分类。中文的序列标注问题,往往可以把一个汉字看做线性序列的一个元素,而不同任务其标签集合代表的含义可能不太相同,但是相同的问题都是:如何根据汉字的上下文给汉字打上一个合适的标签。针对命名实体提取的研究方法很多,主要有基于规则和词典的方法、机器学习方法、深度学习方法等。在传统的机器学习方法中,命名实体识别需要大规模的语料库来学习标注模型,在特征提取方面仍需要人工参与,同时语料库标注的质量严重影响实体识别效果。随着深度学习的发展,rnn在序列标注问题上取得了巨大的成功,bi-lstm+crf模型,在该任务上表现的十分出色。但是基于bi-lstm的模型仍然存在准确率不够、训练时间长的问题,并且无法同时实现分词和词性标注的任务。bert的模型的实现基于多层双向transformer编码器。transformer使用了双向自注意力机制,该机制打破了单向融合上下文信息的限制,采用新的掩码语言模型进行预训练并采用深层的双向transformer组件构建模型,从而生成融合上下文信息的深层双向语言表征。

3、因此,如何构造适用于意图驱动数据链网络的意图实体识别数据集,设计合适的分词器以提高识别性能,训练数据集时如何调整模型参数以实现准确的识别,最终识别到的意图实体如何转换成固定格式的配置文件或指令以供网络管理模块调用,是本领域技术人员目前需要解决的技术问题。


技术实现思路

1、针对基于意图的数据链网络系统中难以准确实现网络管理和配置意图的识别的缺点,提供面向以自然语言形式输入的网络管理意图的高效识别,本专利技术提供一种面向意图驱动数据链网络的自然语言意图转译方法,该方法可以实现多种管理操作、多种数据链网络节点、多种性能约束的自然语言意图转译。

2、为了实现上述目的,本专利技术采用如下技术方案,一种面向意图驱动数据链网络的自然语言意图转译方法,整体步骤流程与输入输出如图1所示,该方法包括如下步骤:

3、步骤1:数据链网络管理意图样本数据采集与标注;

4、通过人工、程序等手段采集数据链网络相关的自然语言语料库,包括数据链网络的应用场景、性能指标、网络架构、网络管理、网络配置、网络运维等各类以中文语言描述的语料样本。定义与网络管理、操作对象、期望状态、性能指标、时空约束等相关的重要实体类型;

5、步骤2:中英文混合意图语句分词;

6、分词是自然语言理解的重要步骤,将句子、段落等长文本,分解为以字词为单位的数据结构,保留最有意义的单词。本专利技术中采用bert的wordpiece进行分词处理。针对语料库中存在的中英文混合实体,在基础中文分词器的基础上,优化词汇表和分词器,实现更准确的分词。分词后,根据步骤一中所标注的实体标签,采用bio标注方法对采集的语料库中的每个字/词进行标注,b表示实体开始,i表示实体中间和结尾,o表示非实体词语。

7、步骤3:基于bert模型的文本表征;

8、采用基本bert中文预训练模型,意图的原始输入是文本形式,无法被数学模型直接处理,需要将文本编码为数字向量的形式。bert模型的输入采用了三种嵌入(embedding)相加的形式,作为每一个符号(token)对应的表征。以预训练的transformer作为编码器,通过其注意力机制学习文本的上下文关系。随后,在模型的最上层加入一个随机初始化的分类器。在本专利技术中,将一个大小为(h,k)全连接层加入到bert模型之上,作为一个从隐藏层h维向量到输出层k维向量的线性映射,其中k表示实体类型数量;

9、步骤4:基于crf的实体识别;

10、在bert模型完成文本的表征向量计算后,最后的全连接层将模型的输出映射到k维的空间,即得到了一个每个词对应的每个标签的分数。直接将最后一层的输出作为实体识别的结果是可行的,但本专利技术继续在模型上层添加一个crf层进行输出的约束,以避免出现识别出非连续实体等问题;

11、步骤5:bert-crf模型训练;

12、将步骤1中采集标注的数据链网络意图语料库按照6:2:2的比例划分为训练集、验证集以及测试集。基于bert的预训练模型,进行模型微调,以一个较小的学习率对步骤3中所述的编码器和分类器进行训练。在每一个epoch中,随机采样训练集数据依次执行步骤2、步骤3、步骤4,将预测的结果与步骤1中标注的标签进行对比,计算crf的损失,反向传播损失,调整网络中各项权重以及crf层中的转移矩阵;

13、步骤6:模型部署应用;

14、将步骤5中训练完成后的模型保存为离线文件,基于flask web框架部署其作为连续预测的模型并开放接口,输入为单条数据链意图语句,调用模型离线文件,分别执行步骤2至步骤4,输出该语句的意图实体识别结果;

15、步骤7:模板匹配;

16、步骤六中输出的实体识别结果没有区分步骤1中定义的操作、约束、对象等类别,无法直接作为数据链网络管理的指令。本专利技术通过模板匹配的方法,将实体类别映射为能够被意图网络处理的json语句,输入到下层的意图自动化系统中进行意图的下发。判断是否继续输入下一条意图,如果是,转到步骤六;否则转到步骤八;

17、步骤8:结束。

18、步骤一中所述的实体标注采用两种方式混合标注,分别为基于doccano的自动标注和人工筛查;最终为每句话中的每个字赋予实体标签,按照特定格式保存为数据集用于后续模型的训练。具体步骤如下:

19、步本文档来自技高网...

【技术保护点】

1.一种面向意图驱动数据链网络的自然语言意图转译方法,具体步骤如下:

2.根据权利要求1中所述的一种面向意图驱动数据链网络的自然语言意图转译方法,其特征在于,步骤1所述的数据链网络管理意图包括:创建链路、修改链路断开链路传感器节点、指控节点、武器节点、尽力型、约束型、传输速率、端到端时延、带宽、速度单位、时间单位、带宽单位、数字、节点编号。

3.根据权利要求1中所述的一种面向意图驱动数据链网络的自然语言意图转译方法,其特征在于,步骤2中的分词器具体为将可能存在且会被默认分词器切分的英文单词,并调整模型的token嵌入层的长度为调整后的tokenizer的长度。

4.根据权利要求1中所述的一种面向意图驱动数据链网络的自然语言意图转译方法,其特征在于,步骤3中所述的三种嵌入方式分别为Token Embeddings,Segment Embeddings以及Position Embeddings;Token Embeddings是针对单个字符构成文本的细粒度Embeddings,在输入句子进行embedding之前,需要先将两个特殊字符:开头[CLS]和结尾[SEP]加入到句子中,每一个输入的语句序列的开头都插入了[CLS]token用于表示序列的开始,其token对应的模型中最后一个Transformer层的输出被用于汇聚整个序列的表征信息,为了使模型能够分辨两个不同的句子,以SEP表示句子的结束,同时标志第二个句子开始;Segment Embeddings用来区别两种句子,作为输入为多个句子的任务时的依据;由于同一个词在不同的句子位置中表现的意义不相同,因此采用Position Embeddings表示位置信息,对每个词向量中加入位置信息;,保证不同位置的相同词含义不相同。

5.根据权利要求1中所述的一种面向意图驱动数据链网络的自然语言意图转译方法,其特征在于,步骤3中所述的Bert模型,包括自然语言处理模型Transformer中的encoder部分,由多层的Transformer Encoder堆叠而成,下层是步骤3中所述的Embedding结构,上层为步骤4中所述的CRF结构;其在训练过程中采用了基于掩盖的语言模型,即随机对输入序列中的某些位置进行遮蔽,然后通过模型来对其进行预测。

6.根据权利要求1中所述的一种面向意图驱动数据链网络的自然语言意图转译方法,其特征在于步骤3中所述的基于Bert模型的文本表征,具体步骤包括:

7.根据权利要求1中所述的一种面向意图驱动数据链网络的自然语言意图转译方法,其特征在于,步骤4中所述的CRF模型,主要包括:Bert模型的输出作为CRF层的输入,其以标签的路径为预测目标,根据步骤三中得到的向量L∈Rn×k,即每个token对应每个实体类别的得分结果L,成为发射概率;CRF的输入同时包含转移矩阵,其内容为某一个实体标签转移到下一个实体标签的权重,记为T∈Rk×k;对于长度为n的文本序列,其可能的标签路径有N=nk条,其分数记为Pi;所有路径的得分记为:

8.根据权利要求1中所述的一种面向意图驱动数据链网络的自然语言意图转译方法,其特征在于,步骤4中所述的CRF模型对输出的约束,主要包括在其基础上再对最终的标签预测结果添加约束,以确保模型输出的实体类别的有效性,帮助模型选择正确合理的实体标签序列,进一步降低预测的错误率,主包括:

9.根据权利要求1中所述的一种面向意图驱动数据链网络的自然语言意图转译方法,其特征在于,步骤6所述的模型部署架构,包括:

10.根据权利要求1中所述的一种面向意图驱动数据链网络的自然语言意图转译方法,其特征在于,步骤7所述的模板匹配流程,最终匹配得到的网络意图如6所示。其中intent_id用于标识系统中意图的唯一编号;operation用于标识操作类型,即创建连接、修改连接、断开连接三种操作类型;objects表示操作的对象,每个对象包括对象类型和格式化的节点ID号;constraions包括多个限制条件,每个条件包括条件的类型、条件具体数值、目标类型以及条件的单位;步骤为:

...

【技术特征摘要】

1.一种面向意图驱动数据链网络的自然语言意图转译方法,具体步骤如下:

2.根据权利要求1中所述的一种面向意图驱动数据链网络的自然语言意图转译方法,其特征在于,步骤1所述的数据链网络管理意图包括:创建链路、修改链路断开链路传感器节点、指控节点、武器节点、尽力型、约束型、传输速率、端到端时延、带宽、速度单位、时间单位、带宽单位、数字、节点编号。

3.根据权利要求1中所述的一种面向意图驱动数据链网络的自然语言意图转译方法,其特征在于,步骤2中的分词器具体为将可能存在且会被默认分词器切分的英文单词,并调整模型的token嵌入层的长度为调整后的tokenizer的长度。

4.根据权利要求1中所述的一种面向意图驱动数据链网络的自然语言意图转译方法,其特征在于,步骤3中所述的三种嵌入方式分别为token embeddings,segment embeddings以及position embeddings;token embeddings是针对单个字符构成文本的细粒度embeddings,在输入句子进行embedding之前,需要先将两个特殊字符:开头[cls]和结尾[sep]加入到句子中,每一个输入的语句序列的开头都插入了[cls]token用于表示序列的开始,其token对应的模型中最后一个transformer层的输出被用于汇聚整个序列的表征信息,为了使模型能够分辨两个不同的句子,以sep表示句子的结束,同时标志第二个句子开始;segment embeddings用来区别两种句子,作为输入为多个句子的任务时的依据;由于同一个词在不同的句子位置中表现的意义不相同,因此采用position embeddings表示位置信息,对每个词向量中加入位置信息;,保证不同位置的相同词含义不相同。

5.根据权利要求1中所述的一种面向意图驱动数据链网络的自然语言意图转译方法,其特征在于,步骤3中所述的bert模型,包括自然语言处理模型transformer中的encoder部分,由多层的transforme...

【专利技术属性】
技术研发人员:蒋定德王志浩刘心蕙
申请(专利权)人:电子科技大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1