模型的训练方法、装置、电子设备、存储介质和计算机程序产品制造方法及图纸

技术编号:43293879 阅读:24 留言:0更新日期:2024-11-12 16:12
本公开关于模型的训练方法、装置、电子设备、存储介质和计算机程序产品,该方法包括:将训练演示和训练指令输入超网络编码器内;将编码结果输入适配器生成器内;基于适配器权重调整学生模型;将训练输入和编码结果输入调整后的学生模型;将训练数据输入教师模型,获得教师输出分布;计算训练损失;基于训练损失对超网络和学生模型进行训练。这样,可以基于训练演示和训练指令利用适配器生成器获得适配器权重,即可以自动从训练指令中生成特定任务的适配器,而无需对未见任务进行重新训练,降低了对大量标记数据的依赖,可以提高模型的跨任务泛化能力。并且,还可以实现降低计算开销、节省计算成本,提高了模型在实际应用中的适应性和灵活性。

【技术实现步骤摘要】

本公开涉及计算机,更具体地说,涉及模型的训练方法、装置、电子设备、存储介质和计算机程序产品


技术介绍

1、随着人工智能技术的快速发展,大型语言模型(large language models,llms)已成为解决各种自然语言处理任务的强大工具。通过针对这些模型在大规模数据集上进行预训练,能够捕捉到丰富的语言模式和知识,从而在多种任务上展现出卓越的性能。然而,llms在实际应用中面临一些挑战,尤其是在需要跨任务泛化的场景中。

2、传统的llms训练方法依赖于大量的标记实例来微调模型,这在现实世界中往往不可行。这是因为对于许多任务来说,获取大量标注数据既昂贵又耗时。此外,当面对未见任务时,这些模型通常需要重新训练或调整,这限制了它们的适应性和灵活性。为了解决这些问题,提出了基于指令微调(instruction finetuning,ift)的方法,通过使用自然语言描述来指导模型完成特定任务。

3、但是,尽管ift在一定程度上提高了模型的跨任务泛化能力,但它仍然依赖于实例训练,这限制了模型在面对新任务时的快速适应能力。此外,ift方法在本文档来自技高网...

【技术保护点】

1.一种模型的训练方法,其特征在于,包括:

2.如权利要求1所述的训练方法,其特征在于,所述基于所述适配器权重、所述教师模型对应的目标权重、所述学生输出结果、所述训练输入对应的真实输出标签、所述学生输出分布和所述教师输出分布,计算训练损失,包括:

3.如权利要求1所述的训练方法,其特征在于,在获取训练数据之前,所述训练方法还包括:

4.如权利要求3所述的训练方法,其特征在于,所述获取预训练数据,包括:

5.如权利要求1所述的训练方法,其特征在于,在获取训练数据之前,所述训练方法还包括:

6.如权利要求1所述的训练方法,其特征在于...

【技术特征摘要】

1.一种模型的训练方法,其特征在于,包括:

2.如权利要求1所述的训练方法,其特征在于,所述基于所述适配器权重、所述教师模型对应的目标权重、所述学生输出结果、所述训练输入对应的真实输出标签、所述学生输出分布和所述教师输出分布,计算训练损失,包括:

3.如权利要求1所述的训练方法,其特征在于,在获取训练数据之前,所述训练方法还包括:

4.如权利要求3所述的训练方法,其特征在于,所述获取预训练数据,包括:

5.如权利要求1所述的训练方法,其特征在于,在获取训练数据之前,所述训练方法还包括:

6.如权利要求...

【专利技术属性】
技术研发人员:何世柱张元哲刘康赵军廖桓萱
申请(专利权)人:中国科学院自动化研究所
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1