一种基于人设配置的通用认知模型训练方法与系统技术方案

技术编号:41288628 阅读:32 留言:0更新日期:2024-05-11 09:37
本发明专利技术公开了一种基于人设配置的通用认知模型训练方法,包括:S1:定义初始语言模型;S2:基于人设配置收集上下文对话数据;S3:将上下文对话数据进行拼接处理,得到文本序列;S4:将文本序列进行tokenize序列化处理,得到ID序列;S5:对ID序列进行掩码处理,得到mask序列,将mask序列作为有效标签;S6:将ID序列输入至初始语言模型,得到预测结果;S7:将预测结果和有效标签进行对齐操作后输入至交叉熵损失函数,得到loss结果;S8:基于loss结果对初始语言模型的参数进行更新;S9:循环执行S3‑S8,直到loss结果收敛不在下降,将此时获得的模型参数作为训练好的语言模型的模型参数。充分利用基于人设的上下文对话训练,提升了模型的训练效率及回复准确率。

【技术实现步骤摘要】

本专利技术涉及自然语言处理,更具体的说是涉及一种基于人设配置的通用认知模型训练方法与系统


技术介绍

1、目前,人设配置分为机器人设配置和用户人设配置,通过机器人设配置,用户与模型对话交互时,模型可以按配置好的机器人设风格进行回复,机器人设配置主要用于专业技能助手场景,比如配置数学家人设就比较擅长解数学题等;通过用户人设配置,用户与模型对话交互时,模型会更加理解用户的需求,从而更好的解决用户实际遇到的问题。用户人设配置主要用于个性化助手场景,一般结合机器人设一起配置。现有的moss大模型、ziya大模型和mechat大模型均支持人设配置,且支持上下文对话。

2、但是,上述三种大模型方案的人设配置过于简单,对于人设配置没有进行充分的训练,导致模型对于人设的认知能力较弱,回复准确率较低;moss大模型和ziya大模型仅使用最后一轮模型回复作为目标进行模型训练,而忽略了前面轮次的模型回复信息,使得模型对整体多轮对话数据训练不够充分,导致多轮上下文对话能力不足;mechat大模型的方案将本来包含n轮对话的完整对话数据拆分成n条对话数据逐条加入模型进行训本文档来自技高网...

【技术保护点】

1.一种基于人设配置的通用认知模型训练方法,其特征在于,包括:

2.根据权利要求1所述的一种基于人设配置的通用认知模型训练方法,其特征在于,所述人设配置包括:简单人设配置、标准人设配置和高配人设配置;

3.根据权利要求2所述的一种基于人设配置的通用认知模型训练方法,其特征在于,所述简单人设配置和所述标准人设配置均支持用户在对话过程中随意修改身份信息;

4.根据权利要求1所述的一种基于人设配置的通用认知模型训练方法,其特征在于,所述文本序列格式如下:

5.根据权利要求4所述的一种基于人设配置的通用认知模型训练方法,其特征在于,对所述ID序列进...

【技术特征摘要】

1.一种基于人设配置的通用认知模型训练方法,其特征在于,包括:

2.根据权利要求1所述的一种基于人设配置的通用认知模型训练方法,其特征在于,所述人设配置包括:简单人设配置、标准人设配置和高配人设配置;

3.根据权利要求2所述的一种基于人设配置的通用认知模型训练方法,其特征在于,所述简单人设配置和所述标准人设配置均支持用户在对话过程中随意修改身份信息;

4.根据权利要求1所述的一种基于人设配置的通用认知模型训练方法,其特征在于,所述文本序列格式如下:

5.根据权利要求4所述的一种基于人设配置的通用认知模型训练方法,其特征在于,对所述id序列进行掩码处理,得到mask序列,具体包括:

6.根据权利要求1所述的一种基于人设配置的通用认知模型训练方法,其特征在于,s7中的所述对齐操作具体包括:

7.根据权利要求6所述的一种基于人设配置的通用认知模型训练方法,其特征在于,所述交叉熵损失函数具体为:

8.根据权利要求6所述的一种基于人设配置的通用认知模型训练方法,其特征在于,还包括...

【专利技术属性】
技术研发人员:章彦博苏江
申请(专利权)人:暗物质北京智能科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1