【技术实现步骤摘要】
本专利技术涉及一种深度模拟人类性格的大语言模型塑造方法,属于自然语言处理。
技术介绍
1、大语言模型(largelanguagemodel,llm),也称大型语言模型,是一种人工智能模型,旨在理解和生成人类语言。它们主要涉及一种自然语言处理(nlp)技术,这是一种基于深度学习中的大规模预训练模型来训练语言模型的一种方法,通过在大量的文本数据上进行训练,可以执行广泛的任务,包括文本总结、翻译、情感分析等等。llm的出现,如chatgpt、chatglm等,让我们看到了人工智能的曙光,在过去,为解决一个个的小任务,我们需要花费大量的时间和精力去训练不同的小模型。而现在,这种情况正在发生改变,大模型具有很强的场景适应能力,它们可以通过学习上下文或少数样本的方式,使用少量的训练数据,做到快速泛化。如何使llm具有个性化的文本输出能力在行业落地场景中是一个有趣的课题,本专利技术提供了一种深度模拟人类性格的llm塑造方法,通过小数据样本塑造出可以具有人类性格特点的llm。
技术实现思路
1、本专利技术
...【技术保护点】
1.一种深度模拟人类性格的大语言模型(LLM)塑造方法,其特征在于,包括以下步骤:
2.根据权利要求1所述的方法,其特征在于,所述提示词、知识库、单轮对话数据集、多轮对话数据集均为基于“大五人格”理论特征进行构建。
3.根据权利要求1所述的方法,其特征在于,所述验证数据集可用性时,采用调查问卷的形式邀请熟练的数据工作者,对数据集是否真实反映了不同的大五人格类型的特点进行验证,剔除不合格的数据。
4.根据权利要求1所述的方法,其特征在于,所述高效参数微调LLM的方法为LoRA微调的方法,利用我们预先构建的单轮对话及多轮对话数据集采用L
...【技术特征摘要】
1.一种深度模拟人类性格的大语言模型(llm)塑造方法,其特征在于,包括以下步骤:
2.根据权利要求1所述的方法,其特征在于,所述提示词、知识库、单轮对话数据集、多轮对话数据集均为基于“大五人格”理论特征进行构建。
3.根据权利要求1所述的方法,其特征在于,所述验证数据集可用性时,采用调查问卷的形式邀请熟练的数据工作者,对数据集是否真实反映了不同的大五人格类型的特点进行验证,剔除不合格的数据。
4.根据权利要求1所述的方法,其特征在于,所述高效参数微调llm的方法为lora微调的方法,利用我们预先构建的单轮对话及多轮对话数据集采用lora微调的方式实现对llm的内部知识调整。
5...
【专利技术属性】
技术研发人员:赵玉良,肖啟军,吕晓永,王婉越,
申请(专利权)人:东北大学秦皇岛分校,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。