【技术实现步骤摘要】
对话模型的训练方法、装置、电子设备和存储介质
[0001]本申请涉及人工智能领域,尤其涉及自然语言处理、深度学习等领域,具体涉及对话模型的训练方法、装置、电子设备和存储介质。
技术介绍
[0002]随着自然语言领域发展走向超大规模模型时代,通过超强算力在海量文本数据上训练超大参数量模型可以使得产出的大语言模型具有多任务、少样本学习的通用语义理解与生成能力。为了使得预训练后的大模型生成符合人类需求的内容,可以对大语言模型进行微调。
技术实现思路
[0003]本申请提供了一种对话模型的训练方法、装置、电子设备和存储介质。具体方案如下:
[0004]根据本申请的一方面,提供了一种对话模型的训练方法,包括:
[0005]获取训练样本,其中,训练样本中包括至少一个任务的对话样本;
[0006]将训练样本输入初始对话模型,以获取初始对话模型输出的预测回复语句;
[0007]根据预测回复语句与对话样本中的参考回复语句之间的差异,对初始对话模型进行训练,得到对话模型。
[0008]根据本申请的另一方面,提供了一种对话生成方法,包括:
[0009]获取输入语句;
[0010]将输入语句输入到对话模型,以获取对话模型输出的回复语句,其中,对话模型是采用如一方面实施例的方法训练得到的。
[0011]根据本申请的一方面,提供了一种对话模型的训练装置,包括:
[0012]第一获取模块,用于获取训练样本,其中,训练样本中包括至少一个任务的对话样本;
...
【技术保护点】
【技术特征摘要】
1.一种对话模型的训练方法,包括:获取训练样本,其中,所述训练样本中包括至少一个任务的对话样本;将所述训练样本输入初始对话模型,以获取所述初始对话模型输出的预测回复语句;根据所述预测回复语句与所述对话样本中的参考回复语句之间的差异,对所述初始对话模型进行训练,得到对话模型。2.如权利要求1所述的方法,其中,所述获取训练样本,包括:对M个不同任务的对话样本集进行采样,得到第i个对话样本,其中,M为大于1的整数,i为正整数;在采样的i个对话样本满足预设条件的情况下,根据所述i个对话样本,获取所述训练样本;在所述i个对话样本未满足所述预设条件的情况下,继续对所述M个对话样本集进行采样。3.如权利要求2所述的方法,其中,所述M个不同任务的对话样本集中至少一个对话样本集中的对话样本携带有参考知识,所述采样的i个对话样本满足预设条件,包括以下至少一项:所述第i个对话样本携带有参考知识;第1个到i
‑
1个对话样本中的对话与所述第i个对话样本的总长度达到预设长度。4.如权利要求2所述的方法,其中,所述根据所述i个对话样本,获取所述训练样本,包括:将第1个到第i
‑
1个对话样本中的对话与所述第i个对话样本进行拼接,得到所述训练样本。5.如权利要求4所述的方法,其中,所述将第1个到第i
‑
1个对话样本中的对话与所述第i个对话样本进行拼接,得到所述训练样本,包括:在所述第i个对话样本携带有参考知识的情况下,将第1个到第i个对话样本中的对话进行拼接,得到中间样本;将所述第i个样本携带的参考知识与所述中间样本进行拼接,得到所述训练样本。6.如权利要求5所述的方法,其中,所述将第1个到第i个对话样本中的对话进行拼接,得到中间样本,包括:将所述第1个到第i个对话样本中的对话按照拼接规则拼接,得到所述中间样本。7.如权利要求2所述的方法,其中,所述对M个不同任务的对话样本集进行采样,得到第i个对话样本,包括:根据每个所述对话样本集的采样概率,对所述M个不同任务的对话样本集进行采样,得到所述第i个对话样本。8.如权利要求7所述的方法,还包括:获取每个任务的对话样本集的属性信息;根据每个所述对话样本集的属性信息,确定每个所述对话样本集的采样概率。9.如权利要求7所述的方法,还包括:根据所述M的取值,确定每个所述对话样本集的采样概率。10.如权利要求1所述的方法,其中,所述根据所述预测回复语句与所述对话样本中的
参考回复语句之间的差异,对所述初始对话模型进行训练,得到对话模型,包括:在所述训练样本包含参考知识的情况下,根据所述预测回复语句与所述参考知识对应的参考回复语句之间的差异,确定第一模型损失;根据所述第一模型损失,对所述初始对话模型进行训练,得到所述对话模型。11.如权利要求1所述的方法,其中,所述根据所述预测回复语句与所述对话样本中的参考回复语句之间的差异,对所述初始对话模型进行训练,得到对话模型,包括:在所述训练样本未包含参考知识的情况下,根据每轮对话对应的预测回复语句与所述训练样本中每轮对话中的参考回复语句之间的差异,确定每轮对话对应的子损失;根据每轮对话对应的子损失,确定第二模型损失;根据所述第二模型损失,对所述初始对话模型进行训练,得到所述对话模型。12.如权利要求1所述的方法,其中,所述将所述训练样本输入初始对话模型,以获取所述初始对话模型输出的预测回复语句,包括:在所述训练样本包含参考知识的情况下,利用所述初始对话模型对所述参考知识、所述训练样本中前N
‑
1轮对话及第N轮对话中的输入语句进行编码,得到编码特征,N为所述训练样本包括的对话轮次,N为正整数;对所述编码特征进行解码,得到所述预测回复语句。13.如权利要求1所述的方法,其中,所述将所述训练样本输入初始对话模型,以获取所述初始对话模型输出的预测回复语句,包括:在所述训练样本未包含参考知识的情况下,利用所述初始对话模型对所述训练样本中第j
‑
1轮对话及第j轮对话中的输入语句进行编码,得到所述第j轮对话对应的编码特征,其中,j为小于或等于N的正整数,N为所述训练样本包括的对话轮次,N为正整数;对所述第j轮对话对应的编码特征进行解码,得到所述第j轮对话对应的预测回复语句。14.一种对话生成方法,包括:获取输入语句;将所述输入语句输入到对话模型,以获取所述对话模型输出的回复语句,其中,所述对话模型是采用如权利要求1
‑
13中任一项所述的方法训练得到的。15.一种对话模型的训练装置,包括:第一获取模块,用于获取训练样本,其中,所述训练样本中包括至少一个任务的对话样本;第二获取模块,用于将所述训练样本输入初始对话模型,以获...
【专利技术属性】
技术研发人员:尚骏远,王硕寰,丁思宇,赵晏彬,朱鹏飞,柴业坤,孙宇,吴华,王海峰,
申请(专利权)人:北京百度网讯科技有限公司,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。