当前位置: 首页 > 专利查询>北京大学专利>正文

中文医学大语言模型训练方法及装置制造方法及图纸

技术编号:42420840 阅读:26 留言:0更新日期:2024-08-16 16:36
本申请公开了一种中文医学大语言模型训练方法及装置,涉及自然语言处理技术领域,所述的方法包括:通过医学文本对预设大语言模型进行预学习训练,使得大语言模型在语义层面上理解专业医学知识。根据开源中文医学考试数据集对预训练后的模型进行监督微调训练,从而降低计算复杂度和内存需求,这使得在保持模型性能的同时,能够在有限的计算资源下进行高效的微调。最后根据构建的知识图谱和强化学习数据集进行知识反馈的强化学习,有助于解决监督微调后由于模型过度拟合而出现的“幻觉”现象,从而将大语言模型的输出与相关的专业医学知识进行充分对齐,提高大语言模型在医学领域回答的准确度。

【技术实现步骤摘要】

本申请涉及自然语言处理,尤其涉及一种中文医学大语言模型训练方法及装置


技术介绍

1、现有的中文医学知识增强大语言模型的技术方案主要可分为两种类型。第一种是监督微调,即sft(supervised fine-tuning)。以huatuogpt-2为例,它使用gpt-4等大语言模型(llm, large language model)对若干医学语料集进行预处理,得到格式统一的指令微调数据集,最后对基座模型(baichuan2)进行监督微调训练。第二种是检索增强生成,即rag(retrieval-augmented generation)。首先从外部医学知识库中检索出与问题相关的信息,然后使大语言模型能够利用这些检索到的信息来回答问题,一般为利用这些信息构造大语言模型的提示(prompt)。检索增强生成具有较强的可解释性和定制能力,并且可实现即时的知识更新。

2、但是,上述的大语言模型在生成回答时经常会出现“幻觉”现象,即生成的信息可能不真实或不准确,这对于大语言模型在专业医学领域的应用产生了较大阻碍。


技术实现思路<本文档来自技高网...

【技术保护点】

1.一种中文医学大语言模型训练方法,其特征在于,所述的方法包括:

2.如权利要求1所述的方法,其特征在于,所述根据预设医学文本对预设大语言模型进行预学习训练,获得预训练后的模型的步骤,包括:

3.如权利要求1所述的方法,其特征在于,所述根据预设开源中文医学考试数据集对所述预训练后的模型进行监督微调训练,获得监督微调后的模型的步骤,包括:

4.如权利要求1所述的方法,其特征在于,所述根据所述知识图谱和所述强化学习数据集对所述监督微调后的模型进行基于知识反馈的强化学习训练,获得中文医学大语言模型的步骤,包括:

5.如权利要求4所述的方法,其特征...

【技术特征摘要】

1.一种中文医学大语言模型训练方法,其特征在于,所述的方法包括:

2.如权利要求1所述的方法,其特征在于,所述根据预设医学文本对预设大语言模型进行预学习训练,获得预训练后的模型的步骤,包括:

3.如权利要求1所述的方法,其特征在于,所述根据预设开源中文医学考试数据集对所述预训练后的模型进行监督微调训练,获得监督微调后的模型的步骤,包括:

4.如权利要求1所述的方法,其特征在于,所述根据所述知识图谱和所述强化学习数据集对所述监督微调后的模型进行基于知识反馈的强化学习训练,获得中文医学大语言模型的步骤,包括:

5.如权利要求4所述的方法,其特征在于,所述根据所述知识图谱中的三元组和所述强化学习数据集确定奖励信号的步骤,包括:

6.如权利要求5所述的方法,其特征在于,所述通过预设奖励模型根据所述知识图谱中的三元...

【专利技术属性】
技术研发人员:黄雨柴忠言徐德轩赵晨卓焦文品陈冬雪
申请(专利权)人:北京大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1