槽填充模型训练方法和自然语言理解模型技术

技术编号:26259803 阅读:29 留言:0更新日期:2020-11-06 17:54
本发明专利技术公开一种槽填充模型训练方法,包括:对所述槽填充模型进行多轮次训练,每轮次训练包括以下步骤:从预设训练集中选择一个领域作为目标训练领域;为所述目标训练领域中的多个标签分别配置多个标注样本,以构成支撑集;从所述目标训练领域的其它标注样本中选择多个标注样本构成元测试数据,用于当前轮次训练的测试;将训练目标设置为最大化所述元测试数据的真实标注预测概率。本发明专利技术通过对槽填充模型进行多轮次训练,并且每轮次训练中都从预设训练集中的选择一个领域作为目标训练领域,同时在目标训练领域下配置支撑集和元测试数据进行训练,实现了采用少样本即可实现对槽填充模型的训练。

【技术实现步骤摘要】
槽填充模型训练方法和自然语言理解模型
本专利技术涉及人工智能
,尤其涉及一种槽填充模型训练方法和自然语言理解模型。
技术介绍
槽填充任务(slottagging)是自然语言理解(NaturalLanguageUnderstanding,NLU)模块中一个典型的序列标注任务。当迁移至新的领域时往往面临数据稀缺的问题。为此,研究人员提出了针对少样本学习(few-shotlearning)的槽填充任务,目前主流趋势是采用元学习(meta-learning)中基于度量(metric-based)的方法。具体而言,这些方法从现有领域的训练数据中学习一个领域无关的编码器,用来为问句中每个单词编码,同时为不同任务的输出标签类别学习一个类别的表示(labelembedding),通过某种距离度量函数,依次为每一个单词赋予最相近的标签。根据句子或类别编码方式的不同,常见的模型包括MatchingNetwork,PrototypicalNetwork,TapNet以及L-TapNet+CDT。专利技术人在实现本专利技术的过程中发现,以上常见的模型把关注的重点都放在了学习有效的编码器上,即如何学习待查询对象以及输出类别的特征表示,忽略了距离度量函数对于分类效果的影响。一个有效的距离度量函数能够极大地缓解特征学习的压力,而不合适的度量方法很有可能导致大量无效的特征学习。
技术实现思路
本专利技术实施例提供一种槽填充模型训练方法和自然语言理解模型,用于至少解决上述技术问题之一。第一方面,本专利技术实施例提供一种槽填充模型训练方法,包括:对所述槽填充模型进行多轮次训练,每轮次训练包括以下步骤:从预设训练集中选择一个领域作为目标训练领域;为所述目标训练领域中的多个标签分别配置多个标注样本,以构成支撑集;从所述目标训练领域的其它标注样本中选择多个标注样本构成元测试数据,用于当前轮次训练的测试;将训练目标设置为最大化所述元测试数据的真实标注预测概率。第二方面,本专利技术实施例提供一种自然语言理解模型,包括采用本专利技术任一实施例的槽填充模型训练方法所训练得到的槽填充模型。第三方面,本专利技术实施例提供一种存储介质,所述存储介质中存储有一个或多个包括执行指令的程序,所述执行指令能够被电子设备(包括但不限于计算机,服务器,或者网络设备等)读取并执行,以用于执行本专利技术上述任一项槽填充模型训练方法。第四方面,提供一种电子设备,其包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本专利技术上述任一项槽填充模型训练方法。第五方面,本专利技术实施例还提供一种计算机程序产品,所述计算机程序产品包括存储在存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,使所述计算机执行上述任一项槽填充模型训练方法。本专利技术实施例的有益效果在于:通过对槽填充模型进行多轮次训练,并且每轮次训练中都从预设训练集中的选择一个领域作为目标训练领域,同时在目标训练领域下配置支撑集和元测试数据进行训练,实现了采用少样本即可实现对槽填充模型的训练。附图说明为了更清楚地说明本专利技术实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本专利技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。图1为本专利技术的槽填充模型训练方法的一实施例的流程图;图2为本专利技术中计算发射分数的一实施例的示意图;图3为本专利技术的槽填充模型训练方法的一实施例的示意图;图4为本专利技术中在GetWeather领域中的进行槽填充的示意图;图5为本专利技术的电子设备的一实施例的结构示意图。具体实施方式为使本专利技术实施例的目的、技术方案和优点更加清楚,下面将结合本专利技术实施例中的附图,对本专利技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本专利技术一部分实施例,而不是全部的实施例。基于本专利技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本专利技术保护的范围。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。本专利技术可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、元件、数据结构等等。也可以在分布式计算环境中实践本专利技术,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。在本专利技术中,“模块”、“装置”、“系统”等指应用于计算机的相关实体,如硬件、硬件和软件的组合、软件或执行中的软件等。详细地说,例如,元件可以、但不限于是运行于处理器的过程、处理器、对象、可执行元件、执行线程、程序和/或计算机。还有,运行于服务器上的应用程序或脚本程序、服务器都可以是元件。一个或多个元件可在执行的过程和/或线程中,并且元件可以在一台计算机上本地化和/或分布在两台或多台计算机之间,并可以由各种计算机可读介质运行。元件还可以根据具有一个或多个数据包的信号,例如,来自一个与本地系统、分布式系统中另一元件交互的,和/或在因特网的网络通过信号与其它系统交互的数据的信号通过本地和/或远程过程来进行通信。最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”,不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。目前普遍采用的距离度量函数是向量余弦相似度以及欧氏距离。研究人员往往将更多精力放在了学习一个更有效的编码器上,忽略了度量函数在最终打分过程中起到的作用。本专利技术在得到每一个单词上下文相关的特征向量和类别特征向量之后,将单词特征表示投射到类别向量上,从而避免不同类别的特征向量的范数大小对打分结果的影响,在此基础之上,再减去一个类别相关的截距值作为阈值,结果作为最终的分数。如图1所示,本专利技术的实施例提供一种槽填充模型训练方法,包括:对所述槽填充模型进行多轮次训练,每轮次训练包括以下步骤:S10、从预设训练集中选择一个领域作为目标训练领域。示例性地,预设训练集包含一系列标注样本对:其中,x=(x1,x2,…,x|x|)表示输入句子序列,y=(y1,y2,…,y|x|)表示输出序列标注,所述预设训练集中包含M个领域{D1,D2,…,DM},每个领域配置有一套标签集合,为本文档来自技高网...

【技术保护点】
1.一种槽填充模型训练方法,包括:对所述槽填充模型进行多轮次训练,每轮次训练包括以下步骤:/n从预设训练集中选择一个领域作为目标训练领域;/n为所述目标训练领域中的多个标签分别配置多个标注样本,以构成支撑集;/n从所述目标训练领域的其它标注样本中选择多个标注样本构成元测试数据,用于当前轮次训练的测试;/n将训练目标设置为最大化所述元测试数据的真实标注预测概率。/n

【技术特征摘要】
1.一种槽填充模型训练方法,包括:对所述槽填充模型进行多轮次训练,每轮次训练包括以下步骤:
从预设训练集中选择一个领域作为目标训练领域;
为所述目标训练领域中的多个标签分别配置多个标注样本,以构成支撑集;
从所述目标训练领域的其它标注样本中选择多个标注样本构成元测试数据,用于当前轮次训练的测试;
将训练目标设置为最大化所述元测试数据的真实标注预测概率。


2.根据权利要求1所述的方法,其中,
所述预设训练集包含一系列标注样本对:其中,x=(x1,x2,…,x|x|)表示输入句子序列,y=(y1,y2,…,y|x|)表示输出序列标注,所述预设训练集中包含M个领域{D1,D2,…,DM},每个领域配置有一套标签集合。


3.根据权利要求2所述的方法,其中,所述将训练目标设置为最大化所述元测试数据的真实标注预测概率通过以下公式实现:



其中,θ表示所述槽填充模型的参数,所述目标训练领域表示为Dt,所述支撑集为(x,y)对来自目标训练领域。






其中,fT(yi-1,yi)是第i步的转移分数,fE(yi,x,S)是第i步的发射分数;



SIM为单词-标签相似性函数,E表示上下文词嵌入函数,c...

【专利技术属性】
技术研发人员:俞凯曹瑞升朱苏
申请(专利权)人:苏州思必驰信息科技有限公司
类型:发明
国别省市:江苏;32

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1