System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 一种基于大语言模型的处方智能生成方法技术_技高网

一种基于大语言模型的处方智能生成方法技术

技术编号:41206254 阅读:4 留言:0更新日期:2024-05-07 22:32
本发明专利技术公开了一种基于大语言模型的处方智能生成方法,属于医学自然语言处理领域。本发明专利技术通过利用先进的自然语言处理技术和深度学习模型,结合医药知识库,进行大规模数据训练,实现对处方的智能生成。该方法主要采用迁移学习的方法利用大语言模型训练一个准确性好、适用性强的RoBERTa模型。由于医疗处方生成的数据量较小,训练出来的模型往往容易过拟合,本方法通过迁移学习,训练得到大预言模型,一定程度上改进了训练得到模型在处方生成任务上的表现。本发明专利技术能够根据患者症状、体质特征和疾病诊断,快速、准确地生成个性化的处方结果,为医药临床实践提供了有力的辅助工具,具有广阔的应用前景。

【技术实现步骤摘要】

本专利技术涉及一种基于大语言模型的处方智能生成方法,属于医学自然语言处理领域。


技术介绍

1、近年来,随着现代医学的不断发展,人工智能技术在医疗领域展现出了巨大的潜力。用于医疗影像的分析,如ct扫描、mri和x光片;监测患者的健康状况,从而提供个性化的健康建议;医疗机器人的应用,用于手术、康复和护理等领域。如今,自然语言处理技术在医学领域的应用也日益受到关注。医学文本的处理和分析对于辅助医师进行诊断和治疗决策具有重要意义。自然语言处理技术的主要目的是从各种医学诊断文本中自动提取出关键信息,帮助医师更快、更准确地根据诊断给出处方结果,从而提高诊断效率。然而,医学文本相对于一般文本而言,具有更多的专业术语、复杂的句法结构和丰富的语义信息,使得医学文本处理任务更加具有挑战性。

2、随着深度学习在自然语言处理中的广泛应用,医学文本处理得到了快速的发展。循环神经网络(rnn)、长短时记忆网络(lstm)和transformer等模型的出现,让深度学习模型具备了高速度、高精度和全自动的特点。这些方法通常需要大量的标注数据和计算资源来训练复杂的模型,如bert、gpt等。然而,这些模型在推理时需要较多的训练数据。但由于缺乏训练数据,会出现模型泛化能力不足的问题,并且由于医学文本的复杂性以及信息的多样性,导致在信息提取和语境理解方面受到限制。

3、为了解决模型泛化能力不足的问题,一种可行的方案是使用基于深度学习的自然语言处理和迁移学习的方法,以词嵌入预训练模型的测试结果为基础,对roberta模型进行微调,得到可以适用于医疗处方生成的roberta模型。

4、本专利技术就是基于迁移学习和大语言模型技术,提出了一种基于大语言模型的处方智能生成方法。


技术实现思路

1、本专利技术的目的在于提供一种基于大语言模型的处方智能生成方法,主要采用迁移学习的方法利用大语言模型训练一个准确性好、适用性强的roberta模型。由于医疗处方生成的数据量较小,训练出来的模型往往容易过拟合,本专利通过迁移学习,训练得到大预言模型,一定程度上改进了训练得到模型在处方生成任务上的表现。

2、本专利技术的目的通过以下技术方案予以实现:

3、一种基于大语言模型的处方智能生成方法,包括以下步骤:

4、步骤1:输入医疗数据:收集并输入已有的医疗诊断处方数据,为后续模型训练提供特定领域的信息;

5、步骤2:训练词嵌入模型:利用医疗数据训练词嵌入模型,将医学领域的语义关系嵌入到向量空间中,为后续模型提供基础;

6、步骤3:获取通用中文语料:输入中文维基百科、各类百科全书、新闻、问答等通用中文语料,扩充模型的语境和知识;

7、步骤4:预训练roberta模型:利用通用中文语料对roberta模型进行预训练,使其具备更广泛的语言理解能力;

8、步骤5:迁移学习微调:利用词嵌入模型的测试结果进行迁移学习,微调roberta模型以适应医学领域的特殊需求,提高模型对医学问题的处理能力;

9、步骤6:医疗数据预处理:对即将输入的医疗诊断处方数据和患者个人情况数据进行预处理,确保其符合模型输入的要求;

10、步骤7:模型训练:在准备好的医疗数据上对roberta模型进行训练,以进一步提升模型对医学领域任务的性能;

11、步骤8:评估模型性能:对训练得到的模型进行评估,包括训练集和测试集的损失值、准确率、召回率、f1分数指标;

12、步骤9:微调优化:分析评估结果,识别模型在特定任务上的弱点,根据分析结果调整模型结构或参数,进行进一步的微调,进一步优化模型的参数和性能;

13、步骤10:模型部署:将优化过的模型进行部署,使其可以在实际应用中处理医疗诊断处方数据,提供准确的预测和分析。

14、作为优选,所述步骤1中,所述医疗诊断处方数据包括患者的病历、医嘱、处方信息。

15、作为优选,所述步骤2具体包括:使用自然语言处理工具python中的gensim库对医疗数据进行分词、去除停用词预处理,然后使用word2vec词嵌入方法进行模型训练,为后续模型提供基础,其中,word2vec模型中,主要有skip-gram和cbow两种训练模型,skip-gram是给定当前值来预测上下文;而cbow是给定上下文,来预测当前值,它们目标函数如下:

16、

17、

18、作为优选,所述步骤4具体包括:利用通用中文语料对roberta模型进行预训练,roberta使用了transformer的多头自注意力机制和前馈神经网络,这些层的计算公式与标准transformer相似;给定输入序列x={x1,x2,...,xn},通过以下公式进行变换:

19、多头注意力机制:

20、其中,q,k和v分别是查询(query)、键(key)、和值(value)的线性变换结果;dk是注意力头的维度;

21、残差连接和层归一化:layernorm(x+attention(q,k,v))

22、前馈神经网络:ffn(x)=relu(xw1+b1)w2+b2

23、其中,w1,w2,b1,b2是网络的权重和偏置;

24、同时,roberta通过遮蔽语言模型技术使其学习语言的丰富表示,模型在输入序列中随机掩盖一些标记,然后预测这些被掩盖的标记。

25、p(xi|x1,…,xi-1,xi+1,…,xn)。

26、作为优选,所述步骤5具体包括:利用医疗数据进行有监督学习,将roberta模型在医学领域的任务上进行微调,使用在步骤2中训练的词嵌入模型的测试结果作为辅助信息,帮助roberta模型更好地适应医学领域;使用给予对抗的迁移学习方法,对于特征提取器,sigmoid作为激活函数,其输出为:

27、gf(x;w,b)=sigm(wx+b)

28、对于标签预测期,softmax作为激活函数,其输出为:

29、gy(gf(x);v,c)=softmax(vgf(x)+c)

30、给定数据点(xi,yi),负对数似然作为损失函数,其标签预测器的损失为:

31、

32、训练优化目标是:

33、

34、其中,表示第i个样本的标签预测损失,r(w,b)是一个可选的正则化器,λ是人为设置的正则化参数,λ·r(w,b)目的是用来防止神经网络过拟合;

35、对于域判别器,sigmoid作为激活函数,其输出为:

36、gd(gf(x);u,z)=sigm(utgf(x)+z)

37、域判别器gd的损失为:

38、

39、判别器的目标函数为:

40、

41、总损失由两部分构成:网络的训练损失和域判断损失:

42、

43、其中,通过最小本文档来自技高网...

【技术保护点】

1.一种基于大语言模型的处方智能生成方法,其特征在于,包括以下步骤:

2.根据权利要求1所述的一种基于大语言模型的处方智能生成方法,其特征在于,所述步骤1中,所述医疗诊断处方数据包括患者的病历、医嘱、处方信息。

3.根据权利要求2所述的一种基于大语言模型的处方智能生成方法,其特征在于,所述步骤2具体包括:使用自然语言处理工具Python中的Gensim库对医疗数据进行分词、去除停用词预处理,然后使用Word2Vec词嵌入方法进行模型训练,为后续模型提供基础,其中,Word2Vec模型中,主要有Skip-Gram和CBOW两种训练模型,Skip-Gram是给定当前值来预测上下文;而CBOW是给定上下文,来预测当前值,它们目标函数如下:

4.根据权利要求3所述的一种基于大语言模型的处方智能生成方法,其特征在于,所述步骤4具体包括:利用通用中文语料对RoBERTa模型进行预训练,RoBERTa使用了Transformer的多头自注意力机制和前馈神经网络,这些层的计算公式与标准Transformer相似;给定输入序列X={x1,x2,...,xn},通过以下公式进行变换:

5.根据权利要求4所述的一种基于大语言模型的处方智能生成方法,其特征在于,所述步骤5具体包括:利用医疗数据进行有监督学习,将RoBERTa模型在医学领域的任务上进行微调,使用在步骤2中训练的词嵌入模型的测试结果作为辅助信息,帮助RoBERTa模型更好地适应医学领域;使用给予对抗的迁移学习方法,对于特征提取器,sigmoid作为激活函数,其输出为:

6.根据权利要求5所述的一种基于大语言模型的处方智能生成方法,其特征在于,所述步骤6具体包括:对新输入的医疗数据和患者个人信息进行清理,处理缺失值和异常情况,将文本数据进行分词、标记化处理,使其符合模型输入的格式。

7.根据权利要求6所述的一种基于大语言模型的处方智能生成方法,其特征在于,所述步骤7具体包括:使用深度学习框架在准备好的医疗数据上对RoBERTa模型进行训练,调整学习率、批量大小这些超参数,确保模型在医疗任务上收敛。

8.根据权利要求7所述的一种基于大语言模型的处方智能生成方法,其特征在于,所述步骤8中训练集和测试集的准确率、召回率、F1分数指标,公式如下:

...

【技术特征摘要】

1.一种基于大语言模型的处方智能生成方法,其特征在于,包括以下步骤:

2.根据权利要求1所述的一种基于大语言模型的处方智能生成方法,其特征在于,所述步骤1中,所述医疗诊断处方数据包括患者的病历、医嘱、处方信息。

3.根据权利要求2所述的一种基于大语言模型的处方智能生成方法,其特征在于,所述步骤2具体包括:使用自然语言处理工具python中的gensim库对医疗数据进行分词、去除停用词预处理,然后使用word2vec词嵌入方法进行模型训练,为后续模型提供基础,其中,word2vec模型中,主要有skip-gram和cbow两种训练模型,skip-gram是给定当前值来预测上下文;而cbow是给定上下文,来预测当前值,它们目标函数如下:

4.根据权利要求3所述的一种基于大语言模型的处方智能生成方法,其特征在于,所述步骤4具体包括:利用通用中文语料对roberta模型进行预训练,roberta使用了transformer的多头自注意力机制和前馈神经网络,这些层的计算公式与标准transformer相似;给定输入序列x={x1,x2,...,xn},通过...

【专利技术属性】
技术研发人员:曹黎俊张云飞蔡占毅
申请(专利权)人:江苏济远医疗科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1