对话预训练模型的训练方法及相关装置制造方法及图纸

技术编号:37555590 阅读:13 留言:0更新日期:2023-05-15 07:39
本申请实施例涉及智能对话技术领域,公开了一种对话预训练模型的训练方法及相关装置,采用若干个第一领域的第一对话历史对神经网络进行训练,得到第一对话预训练模型,其中,第一对话历史标注有第一真实标签,第一真实标签包括至少一个对话任务,对话任务反映第一对话历史的语义逻辑。然后,采用多个第二领域的第二对话历史对第一对话预训练模型进行训练,得到第二对话预训练模型。其中,第二对话历史标注有第二真实标签,第二真实标签与第一真实标签具有相同的结构,第二对话历史的数量小于第一对话历史的数量。通过迁移学习,其他第二领域只需要少量的标注数据也可训练得到效果较好的第二对话预训练模型,能够大幅降低标注成本。本。本。

【技术实现步骤摘要】
对话预训练模型的训练方法及相关装置


[0001]本申请实施例涉及智能对话
,尤其涉及一种对话预训练模型的训练方法及相关装置。

技术介绍

[0002]对话系统一般可以分成三个大类:任务型对话系统、闲聊型对话系统、问答型对话系统,本专利技术主要的研究对象是任务型对话系统。任务型对话通常情况下是为了满足带有明确目的的用户,例如查天气、打电话、订票、订餐等等。由于用户的需求较为复杂,通常情况下需分多轮互动,用户也可能在对话过程中不断修改与完善自己的需求,任务型机器人需要通过询问、澄清和确认来帮助用户明确目的。
[0003]流水线式的TOD(task

oriented dialogue,面向任务对话)系统由四个模块组成:NLU(Natural Language Understanding,自然语言理解)、DST(Dialog StateTracking,对话状态跟踪)、DP(dialogue policy对话策略)和NLG(natural languagegeneration,自然语言生成)。
[0004]该四个模块是流水线式工作的,不同的模块分别基于对话预训练模型独立训练。其中,对话预训练模型是通过开放领域的海量对话数据以自监督的方式训练得到的预训练语言模型。也即,每个领域的对话训练模型都严重依赖于大量的标注数据进行训练。

技术实现思路

[0005]本申请实施例主要解决的技术问题是提供一种对话预训练模型的训练方法及相关装置,能够在大幅降低标注成本的情况下,训练得到效果较好的对话预训练模型。
[0006]第一方面,本申请实施例中提供了一种对话预训练模型的训练方法,包括:
[0007]采用若干个第一领域的第一对话历史对神经网络进行训练,得到第一对话预训练模型,其中,第一对话历史标注有第一真实标签,第一真实标签包括至少一个对话任务,对话任务反映第一对话历史的语义逻辑;
[0008]采用多个第二领域的第二对话历史对第一对话预训练模型进行训练,得到第二对话预训练模型;第二对话历史标注有第二真实标签,第二真实标签与第一真实标签具有相同的结构,第二对话历史的数量小于第一对话历史的数量。
[0009]在一些实施例中,前述采用若干个第一领域的第一对话历史对神经网络进行与训练,得到第一对话预训练模型,包括:
[0010]将第一对话历史格式化,得到第一格式化序列;
[0011]将第一格式化序列,输入神经网络,神经网络基于第一数据库输出第一预测标签,其中,第一数据库是第一领域的问答数据库;
[0012]根据若干个第一预测标签和若干个第一真实标签之间的差异,调整神经网络的模型参数,直至极大似然函数最大化,得到第一对话预训练模型。
[0013]在一些实施例中,前述将第一对话历史格式化,得到第一格式化序列,包括:
[0014]将第一对话历史和各个对话任务进行拼合处理,前述第一对话历史和各个对话任务中的任意两者之间插入有标识符以进行区分,得到第一格式化序列。
[0015]在一些实施例中,前述第一真实标签包括真实对话状态,真实对话状态反映第一对话历史的话题特征;
[0016]极大似然函数包括第一极大似然函数,第一极大似然函数反映第一预测标签中的预测对话状态是真实对话状态的概率。
[0017]在一些实施例中,前述第一真实标签还包括真实问题类别,真实问题类别反映第一对话历史中问题的所属类别;
[0018]极大似然函数还包括第二极大似然函数,第二极大似然函数反映第一预测标签中的预测问题类别是真实问题类别的概率。
[0019]在一些实施例中,前述第一真实标签还包括真实回复,真实回复反映第一对话历史的真实答案;
[0020]极大似然函数还包括第三极大似然函数,第三极大似然函数反映第一预测标签中的预测回复是真实回复的概率。
[0021]在一些实施例中,第三极大似然函数还反映第一预测标签中的预测回复不是真实回复的概率,以进行对比学习。
[0022]第二方面,本申请实施例中提供了一种任务型对话模型的训练方法,包括:
[0023]获取某一对话任务对应的训练集;
[0024]采用训练集对对话预训练模型进行训练,得到任务型对话模型,其中,对话预训练模型是采用如第一方面的对话预训练模型的训练方法训练得到。
[0025]第三方面,本申请实施例中提供了一种对话回复生成方法,包括:
[0026]获取对话上文;
[0027]将对话上文输入至少一个任务型对话模型,至少一个任务型对话模型分别输出对话任务,得到至少一个对话任务;其中,至少一个任务型对话模型用于针对不同的对话任务进行预测,任意一个任务型对话模型是采用如第二方面的方法训练得到;
[0028]根据至少一个对话任务,输出对话回复。
[0029]第四方面,本申请实施例中提供了一种电子设备,其特征在于,包括:
[0030]至少一个处理器,以及
[0031]与至少一个处理器通信连接的存储器,其中,
[0032]存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行第一方面、第二方面或第三方面的方法。
[0033]第五方面,本申请实施例中提供了一种非暂态计算机可读存储介质,非暂态计算机可读存储介质存储有计算机可执行指令,计算机可执行指令用于使电子设备执行如第一方面、第二方面或第三方面的方法。
[0034]本申请实施例的有益效果:区别于现有技术的情况,本申请实施例提供的对话预训练模型的训练方法,采用若干个第一领域的第一对话历史对神经网络进行训练,得到第一对话预训练模型,其中,第一对话历史标注有第一真实标签,第一真实标签包括至少一个对话任务,对话任务反映第一对话历史的语义逻辑。然后,采用多个第二领域的第二对话历史对第一对话预训练模型进行训练,得到第二对话预训练模型。其中,第二对话历史标注有
第二真实标签,第二真实标签与第一真实标签具有相同的结构,第二对话历史的数量小于第一对话历史的数量。
[0035]在此实施例中,在已知第一领域海量的第一对话历史的基础上,通过设置第一真实标签包括反映第一对话历史的语义逻辑的至少一个对话任务,使得训练得到的第一对话预训练模型能够学习到第一对话历史中各个对话任务之间的相互隐含关系,从而,采用第一对话预训练模型学习数量较少的第二领域的第二对话历史,即可将第一对话预训练模型学习到相互隐含关系的能力迁移到学习第二领域的第二对话历史生成的第二对话预训练模型中。在第二领域的第二对话历史少量的情况下,第二对话预训练模型也可以学习到这些反映语义逻辑的相互隐含关系。因此,在已有第一领域海量对话数据的情况下,通过迁移学习,其他第二领域只需要少量的标注数据也可训练得到效果较好的第二对话预训练模型,能够大幅降低标注成本。
附图说明
[0036]一个或多个实施例通过与之对应的附图中的图片进行示例性说明,这些示例性说明并不构本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种对话预训练模型的训练方法,其特征在于,包括:采用若干个第一领域的第一对话历史对神经网络进行训练,得到第一对话预训练模型,其中,所述第一对话历史标注有第一真实标签,所述第一真实标签包括至少一个对话任务,所述对话任务反映所述第一对话历史的语义逻辑;采用多个第二领域的第二对话历史对所述第一对话预训练模型进行训练,得到第二对话预训练模型;所述第二对话历史标注有第二真实标签,所述第二真实标签与所述第一真实标签具有相同的结构,所述第二对话历史的数量小于所述第一对话历史的数量。2.根据权利要求1所述的方法,其特征在于,所述采用若干个第一领域的第一对话历史对神经网络进行训练,得到第一对话预训练模型,包括:将所述第一对话历史格式化,得到第一格式化序列;将所述第一格式化序列,输入所述神经网络,所述神经网络基于第一数据库输出第一预测标签,其中,所述第一数据库是所述第一领域的问答数据库;根据若干个所述第一预测标签和若干个所述第一真实标签之间的差异,调整所述神经网络的模型参数,直至极大似然函数最大化,得到所述第一对话预训练模型。3.根据权利要求2所述的方法,其特征在于,所述将所述第一对话历史格式化,得到第一格式化序列,包括:将所述第一对话历史和各个所述对话任务进行拼合处理,所述第一对话历史和各个所述对话任务中的任意两者之间插入有标识符以进行区分,得到所述第一格式化序列。4.根据权利要求3所述的方法,其特征在于,所述第一真实标签包括真实对话状态,所述真实对话状态反映所述第一对话历史的话题特征;所述极大似然函数包括第一极大似然函数,所述第一极大似然函数反映所述第一预测标签中的预测对话状态是所述真实对话状态的概率。5.根据权利要求4所述的方法,其特征在于,所述第一真实标签还包括真实问题类别,所述真实问题类别反映所述第一对话历史中问题的所属类别;所述极大似然函数还包括...

【专利技术属性】
技术研发人员:曾钢欣
申请(专利权)人:深圳数联天下智能科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1