自然语言处理模型的训练方法、自然语言处理方法及装置制造方法及图纸

技术编号:29979653 阅读:32 留言:0更新日期:2021-09-08 10:10
本公开提供了一种自然语言处理模型的训练方法,涉及人工智能领域,尤其涉及自然语言处理领域。具体实现方案为:对输入文本进行针对多任务的语义学习,得到针对多任务的语义特征,其中,多任务包括多个分支任务;基于语义特征分别进行针对各个分支任务的特征学习,得到针对各个分支任务的第一输出结果;根据针对各个分支任务的第一输出结果,计算针对各个分支任务的损失;以及根据针对各个分支任务的损失,调整自然语言处理模型的参数。本公开还提供了一种自然语言处理模型的训练装置、自然语言处理方法及其装置、电子设备和存储介质。电子设备和存储介质。电子设备和存储介质。

【技术实现步骤摘要】
自然语言处理模型的训练方法、自然语言处理方法及装置


[0001]本公开涉及人工智能
,尤其涉及自然语言处理技术。更具体地,本公开提供了一种自然语言处理模型的训练方法及其装置、自然语言处理方法及其装置、电子设备和存储介质。

技术介绍

[0002]近年来随着自然语言处理技术的不断发展,基于大规模语料的预训练语言模型已逐渐成为了经典的框架。但目前业内关于语义理解和语言生成等不同任务的语言模型的研究普遍是独立进行的,语义理解模型不具备语言生成的能力,反之亦然。
[0003]因此,如何使一个模型同时具备语义理解和语言生成的能力成为待解决的问题。

技术实现思路

[0004]本公开提供了一种自然语言处理模型的训练方法及其装置、自然语言处理方法及其装置、电子设备和存储介质。
[0005]根据第一方面,提供了一种自然语言处理模型的训练方法,该方法包括:对输入文本进行针对多任务的语义学习,得到针对多任务的语义特征,其中,多任务包括多个分支任务;基于语义特征分别进行针对各个分支任务的特征学习,得到针对各个分支任务的第一输出结果;根据针对各个分支任务的第一输出结果,计算针对各个分支任务的损失;以及根据针对各个分支任务的损失,调整自然语言处理模型的参数。
[0006]根据第二方面,提供了一种自然语言处理方法,该方法包括:获取针对预设分支任务的待处理文本;以及使用自然语言处理模型对待处理文本进行针对多任务的语义学习,得到针对多任务的语义特征,并根据语义特征进行针对预设分支任务的特征学习,得到针对预设分支任务的处理结果;其中,多任务包括预设分支任务,自然语言处理模型是利用根据上述自然语言处理模型的训练方法训练的。
[0007]根据第三方面,提供了一种自然语言处理模型的训练装置,该装置包括:语义学习模块,用于对输入文本进行针对多任务的语义学习,得到针对多任务的语义特征,其中,多任务包括多个分支任务;特征学习模块,用于基于语义特征分别进行针对各个分支任务的特征学习,得到针对各个分支任务的第一输出结果;损失计算模块,用于根据针对各个分支任务的第一输出结果,计算针对各个分支任务的损失;以及参数调整模块,用于根据针对各个分支任务的损失,调整自然语言处理模型的参数。
[0008]根据第四方面,提供了一种自然语言处理装置,该装置包括:获取模块,用于获取针对预设分支任务的待处理文本;以及处理模块,用于使用自然语言处理模型对待处理文本进行针对多任务的语义学习,得到针对多任务的语义特征,并根据语义特征进行针对预设分支任务的特征学习,得到针对预设分支任务的处理结果;其中,多任务包括预设分支任务,自然语言处理模型是利用根据上述自然语言处理模型的训练方法训练的。
[0009]根据第五方面,提供了一种电子设备,包括:至少一个处理器;以及与至少一个处
理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行根据本公开提供的方法。
[0010]根据第六方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,该计算机指令用于使计算机执行根据本公开提供的方法。
[0011]根据第七方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据本公开提供的方法。
[0012]应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
[0013]附图用于更好地理解本方案,不构成对本公开的限定。其中:
[0014]图1A是根据本公开一个实施例的统一预训练语言模型的结构原理图;
[0015]图1B是根据本公开一个实施例的自然语言处理模型的训练方法和/或自然语言处理方法的系统原理图;
[0016]图2是根据本公开的一个实施例的自然语言处理模型的训练方法的流程图;
[0017]图3A、图3B和图3C是根据本公开的一个实施例的基于上述自然语言处理模型实现不同分支任务的原理图;
[0018]图4A和图4B是根据本公开的一个实施例的基于上述自然语言处理模型实现的语义生成任务的原理图;
[0019]图5是根据本公开另一个实施例的自然语言处理模型的训练方法和/或自然语言处理方法的系统原理图;
[0020]图6是根据本公开的一个实施例的自然语言处理方法的流程图
[0021]图7是根据本公开的一个实施例的自然语言处理模型的训练装置的框图;
[0022]图8是根据本公开的一个实施例的自然语言处理装置的框图;
[0023]图9是根据本公开的一个实施例的自然语言处理模型的训练方法和/或自然语言处理方法的电子设备的框图。
具体实施方式
[0024]以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
[0025]本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。
[0026]自然语言处理模型的应用越来越广泛,语义理解和语言生成作为自然语言处理的分支在各自的研究领域都取得了明显的进步。例如,在语义理解领域,产生了BERT、ERNIE和XLNet等经典预训练语言模型,大幅提升了各类自然语义理解任务(例如文本匹配、情感分类、检索等)的效果。在语言生成领域,产生了GPT、BART和T5等经典预训练语言模型,大幅提升了各类自然语言生成任务(例如文本生成、文本摘要生成、生成式问答等)的效果。
[0027]但目前业内关于语义理解和语言生成等不同任务的语言模型的研究普遍是独立进行的,语义理解模型不具备语言生成的能力,反之亦然。因此,当面临同时需要语义理解和语言生成能力的场景时,就需要训练两个模型,这会大大增加资源和时间的消耗。
[0028]目前业内已经提出使用统一预训练语言模型来实现语义理解任务和语言生成任务的共同训练的方案。例如,UNILM(UNIfied pre

trained Language Model)在BERT的基础上融合Seq2Seq(Sequence to Sequence,序列到序列的转换模型,简称S2S)任务,初步实现了语义理解和语言生成的共同训练。它以BERT为模型结构,利用Mask机制,将单向Mask语言模型、双向Mask语言模型以及Seq2Seq三种模型统一起来。
[0029]图1A是根据本公开一个实施例的统一预训练语言模型的结构原理图。
[0030]如图1A所示,统一预训练语言模型(例如UNILM)可以包括嵌入层111和Transformer层112。例如,以X1,X2.....本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种自然语言处理模型的训练方法,包括:对输入文本进行针对多任务的语义学习,得到针对多任务的语义特征,其中,所述多任务包括多个分支任务;基于所述语义特征分别进行针对各个分支任务的特征学习,得到针对各个分支任务的第一输出结果;根据针对各个分支任务的第一输出结果,计算针对各个分支任务的损失;以及根据针对各个分支任务的损失,调整所述自然语言处理模型的参数。2.根据权利要求1所述的方法,其中,所述多任务包括用于语义理解的第一分支任务;所述基于所述语义特征分别进行针对各个分支任务的特征学习,得到针对各个分支任务的第一输出结果包括:针对所述输入文本中的每个字,基于所述语义特征确定位于所述字之前的上文信息以及位于所述字之后的下文信息;根据所述上文信息和下文信息,确定所述输入文本的语义理解信息,作为针对所述第一分支任务的第一输出结果。3.根据权利要求2所述的方法,还包括:根据所述上文信息和下文信息,计算所述输入文本中的多个语句之间的逻辑距离,作为针对第一分支任务的第一输出结果。4.根据权利要求2所述的方法,还包括:根据所述上文信息和下文信息,确定所述输入文本中的多个语句之间的逻辑顺序,作为针对第一分支任务的第一输出结果。5.根据权利要求1所述的方法,其中,所述多任务包括用于语言生成的第二分支任务;所述基于所述语义特征分别进行针对各个分支任务的特征学习,得到针对各个分支任务的第一输出结果包括:针对所述输入文本中的每个字,基于所述语义特征确定位于所述字之前的上文信息;基于所述上文信息,预测位于所述字之后的下文信息,作为针对第二分支任务的第一输出结果。6.根据权利要求1所述的方法,还包括:基于所述语义特征分别确定针对各个分支任务的第二输出结果。7.根据权利要求6所述的方法,其中,所述根据针对各个分支任务的第一输出结果,计算针对各个分支任务的损失包括:根据所述针对各个分支任务的第一输出结果和第二输出结果,计算针对各个分支任务的损失。8.根据权利要求6所述的方法,其中,所述多任务包括用于语义理解的第一分支任务;所述基于所述语义特征分别确定针对各个分支任务的第二输出结果包括以下之一:基于所述语义特征,确定所述输入文本的语义理解信息,作为针对第一分支任务的第二输出结果;基于所述语义特征,计算所述输入文本中的多个语句之间的逻辑距离,作为针对第一分支任务的第二输出结果;基于所述语义特征,确定所述输入文本中的多个语句之间的逻辑顺序,作为针对第一
分支任务的第二输出结果。9.根据权利要求6所述的方法,其中,所述多任务包括用于语言生成的第二分支任务;所述基于所述语义特征分别确定针对各个分支任务的第二输出结果包括:针对所述输入文本中的每个字,基于所述语义特征预测所述字的下文信息,作为针对第二分支任务的第二输出结果。10.一种自然语言处理方法,包括:获取针对预设分支任务的待处理文本;以及使用自然语言处理模型对所述待处理文本进行针对多任务的语义学习,得到针对所述多任务的语义特征,并根据所述语义特征进行针对所述预设分支任务的特征学习,得到针对所述预设分支任务的处理结果;其中,所述多任务包括所述预设分支任务,所述自然语言处理模型是利用根据权利要求1至9中任一项所述的方法训练的。11.一种自然语言处理模型的训练装置,包括:语义学习模块,用于对输入文本进行针对多任务的语义学习,得到针对多任务的语义特征,其中,所述多任务包括多个分支任务;特征学习模块,用于基于所述语义特征分别进行针对各个分支任务的特征学习,得到针对各个分支任务的...

【专利技术属性】
技术研发人员:丁思宇庞超王硕寰赵晏彬尚骏远孙宇冯仕堃田浩吴华王海峰
申请(专利权)人:北京百度网讯科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1