【技术实现步骤摘要】
一种对话处理方法、系统、存储介质及终端
[0001]本申请涉及机器学习
,特别涉及一种对话处理方法、系统、存储介质及终端。
技术介绍
[0002]近年来,人工智能的发展如火如荼,其中自然语言理解是人工智能领域中最重要的方向之一,让机器识别自然语言已经成为研究人员研究的热点,由此智能问答系统应运而生。智能问答系统是信息检索系统的一种高级形式,它能用准确、简洁的自然语言回答用户用自然语言提出的问题,常见的智能问答系统可分为闲聊型、问答型和任务型。
[0003]在现有技术中,针对闲聊型的问答系统实现方式中,通常主要是基于检索问答库的技术路线,通过构建闲聊语料库进而实现智能问答;也可以基于生成类模型,通过模型的方式直接生成回复文本。由于目前文本生成类模型在训练过程中采用历史对话文本进行训练的,历史对话文本可能包括各种各样的训练数据,从而导致模型在生成的回复文本时会出现不符合客观事实和科学原理的情况,甚至出现具有毒害性且不可控的回复文本,此类回复文本并不符合人们预期的回复,从而降低了问答系统生成回复文本的准确性。
技术实现思路
[0004]本申请实施例提供了一种对话处理方法、系统、存储介质及终端。为了对披露的实施例的一些方面有一个基本的理解,下面给出了简单的概括。该概括部分不是泛泛评述,也不是要确定关键/重要组成元素或描绘这些实施例的保护范围。其唯一目的是用简单的形式呈现一些概念,以此作为后面的详细说明的序言。
[0005]第一方面,本申请实施例提供了一种对话处理方法,方法包括:
...
【技术保护点】
【技术特征摘要】
1.一种对话处理方法,其特征在于,所述方法包括:获取针对客户端输入的原始问题文本,并在存在历史对话文本的情况下,拼接所述原始问题文本与所述历史对话文本,得到待处理文本;将所述待处理文本输入预先训练的文本生成模型中,输出所述待处理文本对应的多条目标响应文本;其中,所述预先训练的文本生成模型是基于预先训练的奖励模型中文本喜欢程度最大化损失函数以及强化学习方式训练生成的;所述文本喜欢程度最大化损失函数用于最大化得分更高的文本与得分更低的文本之间的差值;根据敏感词库和预先训练的混淆度计算模型判定每条目标响应文本是否符合预设条件,并将任意一个符合预设条件的目标响应文本响应至所述客户端。2.根据权利要求1所述的方法,其特征在于,按照以下步骤生成预先训练的文本生成模型,包括:在历史对话文本库中获取并预处理预设数量的对话文本,得到第一标准对话数据集和第二标准对话数据集;将所述第二标准对话数据集按照预设比例划分为三部分,得到第一模型训练样本、第二模型训练样本以及第三模型训练样本;根据所述第一标准对话数据集对预设GPT模型进行模型训练,训练结束后得到第一对话模型;根据所述第一模型训练样本对所述第一对话模型进行有监督训练,训练结束后得到第二对话模型;根据所述第二模型训练样本以及所述第二对话模型进行奖励模型训练,训练结束后得到预先训练的奖励模型;根据所述第三模型训练样本、所述第二对话模型以及所述预先训练的奖励模型进行模型强化学习训练,训练结束后得到预先训练的文本生成模型。3.根据权利要求2所述的方法,其特征在于,所述获取并预处理预设数量的对话文本,得到第一标准对话数据集和第二标准对话数据集,包括:获取预设数量的对话文本;对获取的每个对话文本进行数据预处理,得到第一标准对话数据集;数据预处理至少包括错别字替换、特殊字符处理以及断句处理;将所述第一标准对话数据集中每个第一标准对话数据进行数据结构化处理,得到第二标准对话数据集;数据结构化处理至少包括对话角色划分、对话顺序归类以及对话拼接。4.根据权利要求2所述的方法,其特征在于,所述根据所述第二模型训练样本以及所述第二对话模型进行奖励模型训练,训练结束后得到预先训练的奖励模型,包括:按照预设第一角色在前以及预设第二角色在后的方式,将所述第二模型训练样本中每个对话序列中历史对话进行拼接,并在拼接的对话文本的句子数量以及文本长度满足预设阈值时,对拼接的对话文本标记角色标签以及对话序号,得到标签数据;将所述标签数据的每条输入文本输入所述第二对话模型中,输出所述每条输入文本对应的响应文本;将所述每条输入文本及其响应文本组合为目标数据发送至客户端进行展示;
接收针对展示的目标数据的排序和打分,得到奖励模型训练样本;将所述第二对话模型最后的线性层进行修改,使所述第二对话模型输出标量分数值,并对修改后的第二对话模型设置文本喜欢程度最大化损失函数,得到奖励模型;将所述奖励模型训练样本输入所述奖励模型中,输出模型损失值;当所述模型损失值到达最小且训练次数到达预设阈值时,得到预先训练的奖励模型。5.根据权利要求4所述的方法,其...
【专利技术属性】
技术研发人员:黄洋,熊京萍,蔡劲松,廖奇,李圆法,陈楷,
申请(专利权)人:科讯嘉联信息技术有限公司,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。