一种基于对比监督和跨阶段蒸馏的通用信息抽取方法技术

技术编号:45869400 阅读:5 留言:0更新日期:2025-07-19 11:25
本发明专利技术提供一种基于对比监督和跨阶段蒸馏的通用信息抽取方法,包括选择经过预训练的模型作为基座模型并进行初始化;为所述基座模型的权重矩阵初始化第一低秩分解矩阵和第二低秩分解矩阵;训练所述第一低秩分解矩阵和所述第二低秩分解矩阵;将所述基座模型的权重、所述第一低秩分解矩阵和所述第二低秩分解矩阵进行合并,得到推理模型;将自然语言文本信息输入到所述推理模型中;通过自然语言指令指定任务类型和输出格式,输出结构化信息抽取结果。本发明专利技术的有益效果是通过分阶段训练LoRA矩阵并复合参数,保留辅助任务知识的同时学习目标任务,显著减少跨阶段知识迁移的损失;自然语言指令驱动同一模型处理不同任务,无需切换模型架构。

【技术实现步骤摘要】

本专利技术属于信息处理,尤其是涉及一种基于对比监督和跨阶段蒸馏的通用信息抽取方法


技术介绍

1、通用信息抽取旨在实现一个能够同时处理多种信息抽取任务的通用模型,包括命名实体识别、关系抽取以及事件抽取等核心子任务。现有研究通过设计与目标任务密切相关的辅助任务,同时构建基于多阶段持续学习的训练范式以增强目标任务的抽取性能。这种基于多阶段训练的学习范式,通过依次学习不同难度和重要程度的抽取目标来逐步提升抽取能力,在通用信息抽取领域取得了突破性的进展。特别地,这种渐进式的学习策略可以被称为持续学习。

2、持续学习(continual learning),也被称为终身学习或增量学习,旨在按照一定顺序依次学习不同任务,以应对动态变化的知识和环境。虽然现有研究基于持续学习框架实现了比传统多任务学习架构更好的抽取效果,但它们往往也面临着灾难性遗忘(catastrophic forgetting, cf)问题。灾难性遗忘指的是当模型学习新任务时,在过去任务上的推理性能显著下降的现象。特别地,当新旧任务具有较高的重叠度时,模型可能会较好地保持对先前知识的记忆。当本文档来自技高网...

【技术保护点】

1.一种基于对比监督和跨阶段蒸馏的通用信息抽取方法,其特征在于,包括以下步骤:

2.根据权利要求1所述的通用信息抽取方法,其特征在于,训练所述第一低秩分解矩阵包括以下步骤:

3.根据权利要求2所述的通用信息抽取方法,其特征在于,训练所述第二低秩分解矩阵包括以下步骤:

4.根据权利要求2或3所述的通用信息抽取方法,其特征在于:所述第一损失函数的公式为,其中为最小化负对数似然损失,为监督对比损失,为监督对比损失项的权重。

5.根据权利要求3所述的通用信息抽取方法,其特征在于:所述第二损失函数的公式为,其中为最小化负对数似然损失,为监督对比损失,...

【技术特征摘要】

1.一种基于对比监督和跨阶段蒸馏的通用信息抽取方法,其特征在于,包括以下步骤:

2.根据权利要求1所述的通用信息抽取方法,其特征在于,训练所述第一低秩分解矩阵包括以下步骤:

3.根据权利要求2所述的通用信息抽取方法,其特征在于,训练所述第二低秩分解矩阵包括以下步骤:

4.根据权利要求2或3所述的通用信息抽取方法,其特征在于:所述第一损失函数的公式为,其中为最小化负对数似然损失,为监督对比损失,为监督对比损失项的权重。

5.根据权利要求3所述的通用信息抽取方法,其特征在于:所述第二损失函数的公式为,其中为最小化负对数似然损失,为监督对比损失,为监督对比损失项的权重,为回放样本损失,为蒸馏损失,为蒸馏损失项的权重。

6.根据权利要求5所述的通用信息抽取方法,其特征在于:所述监督对比损失的方程式为,其中为三元组损失,为样本锚点,表示其中的一个正样本,表...

【专利技术属性】
技术研发人员:刘杰金钰
申请(专利权)人:天津汲智科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1