自然语言问答方法、系统、装置及电子设备制造方法及图纸

技术编号:34520946 阅读:19 留言:0更新日期:2022-08-13 21:10
本发明专利技术提供一种自然语言问答方法、系统、装置及电子设备,其中自然语言问答方法,包括:对用户问题进行分类,得到目标分类结果;基于所述目标分类结果,对所述用户问题进行知识问答处理、题目问答处理或者闲聊对话处理,得到所述用户问题的问答结果;将所述问答结果显示于交互界面上。本发明专利技术通过用户问题的目标分类结果进行针对性处理的方式,解决了相关技术中直接从含有大量课程属性信息及大量课程题目信息的学科知识图谱中查询问答结果时耗时且获取问答结果的效率也较低的缺陷,实现了快速且高效的向用户提供所需知识要点、课程习题或者与用户进行聊天互动的目的,满足了用户的多角度需求,从而也有效提高了处理自然语言的灵活性和可靠性。活性和可靠性。活性和可靠性。

【技术实现步骤摘要】
自然语言问答方法、系统、装置及电子设备


[0001]本专利技术涉及自然语言问答
,尤其涉及一种自然语言问答方法、系统、装置及电子设备。

技术介绍

[0002]随着知识图谱技术和互联网技术的发展,利用学习资源和教育资源梳理学科知识框架及构建知识图谱,可以帮助和了解学生各课程之间的知识点关联和快速全面掌握课程知识要点,因此,基于学科知识图谱的智能问答系统应运而生。
[0003]相关技术中,基于学科知识图谱的智能问答系统可以不需要掌握复杂的数据库查询语言,而是通过自然语言的方式和知识图谱进行交互的方式,从学科知识图谱中查询与用户问题匹配的问答结果,比如查询用户所需的知识要点和练习题目。
[0004]然而,由于现有学科知识图谱中包含大量的课程属性信息及大量的课程题目信息,导致直接从知识图谱查询问答结果时不仅耗费时间较长,而且获取问答结果的效率也较低。

技术实现思路

[0005]本专利技术提供一种自然语言问答方法、系统、装置及电子设备,用以解决现有技术中直接从含有大量课程属性信息及大量课程题目信息的学科知识图谱中查询问答结果时耗时且获取问答结果的效率也较低的缺陷,实现快速且高效的向用户提供所需知识要点、课程习题或者与用户进行聊天互动的目的。
[0006]本专利技术提供一种自然语言问答方法,包括:
[0007]对用户问题进行分类,得到目标分类结果;
[0008]基于所述目标分类结果,对所述用户问题进行知识问答处理、题目问答处理或者闲聊对话处理,得到所述用户问题的问答结果;
[0009]将所述问答结果显示于交互界面上。
[0010]根据本专利技术提供的一种自然语言问答方法,所述对用户问题进行分类,得到目标分类结果,包括:
[0011]使用预设BERT

sotfmax模型,计算用户问题分别为不同分类标签时对应的目标分类概率;
[0012]基于所述目标分类概率,确定目标分类结果。
[0013]根据本专利技术提供的一种自然语言问答方法,所述基于所述目标分类结果,对所述用户问题进行知识问答处理,得到所述用户问题的问答结果,包括:
[0014]确定所述目标分类结果表征所述用户问题属于知识问答类时,使用预设BERT

BiLSTM

CRF模型,获取所述用户问题中以预设序列标注输出的目标实体;
[0015]基于预先存储的学科知识图谱数据,确定与所述目标实体语义相似度最高的目标候选关系;
[0016]基于所述目标候选关系和所述目标实体,生成目标查询语句;
[0017]从所述学科知识图谱数据中检索得到所述目标查询语句对应的问答结果。
[0018]根据本专利技术提供的一种自然语言问答方法,所述基于所述目标分类结果,对所述用户问题进行题目问答处理,得到所述用户问题的问答结果,包括:
[0019]确定所述目标分类结果表征所述用户问题属于题目问答类时,使用预设题目问答模型,生成所述用户问题的用户动作标签文本;
[0020]基于所述用户动作标签文本和预先存储的课程题目数据,获取与所述用户动作标签文本对应的系统动作标签文本;
[0021]基于所述系统动作标签文本,生成符合自然语言形式的问答结果;
[0022]其中,所述用户动作标签包括提供第一槽位的第一占位符标签和询问第二槽位的第二占位符,所述预设题目问答模型包括使用题目问答样本数据集训练含有BERT编码器和soft

copy机制解码器的Seq2Seq模型所得的模型。
[0023]根据本专利技术提供的一种自然语言问答方法,所述基于所述目标分类结果,对所述用户问题进行闲聊对话处理,得到所述用户问题的问答结果,包括:
[0024]确定所述目标分类结果表征所述用户问题属于闲聊对话类时,使用预设Seq2Seq模型,生成与所述用户问题匹配的问答结果;
[0025]其中,所述预设Seq2Seq模型用于使用训练好的循环神经网络和注意力机制学习所述用户问题后预测对应的问答结果。
[0026]根据本专利技术提供的一种自然语言问答方法,所述预设BERT

sotfmax模型的训练过程,包括:
[0027]获取分类样本数据集和分类标签,所述分类样本数据集包括知识问句样本数据、题目问句样本数据和闲聊语句样本数据,所述分类标签包括知识问答、题目问答和闲聊对话;
[0028]针对所述分类样本数据集对应选取所述分类标签,构成正样本集,以及针对所述分类样本数据集随机选取所述分类标签,构成负样本集;
[0029]采用所述正样本集和所述负样本集对含有双向Transformer编码器的BERT模型和softmax编码器进行训练,得到预设BERT

sotfmax模型。
[0030]根据本专利技术提供的一种自然语言问答方法,所述预设BERT

BiLSTM

CRF模型的训练过程,包括:
[0031]获取知识问句样本数据,所述知识问句样本数据经过预处理且携带实体标签;
[0032]使用所述知识问句样本数据对初始BERT

BiLSTM

CRF模型进行训练,得到预设BERT

BiLSTM

CRF模型。
[0033]根据本专利技术提供的一种自然语言问答方法,所述预设题目问答模型的训练过程,包括:
[0034]确定题目问答对话模式,并以所述题目问答对话模式构建题目问答对话模板;
[0035]基于所述题目问答对话模板,生成题目问答样本集,所述题目问答样本集中每个题目问答样本均包括提供第一样本槽位的第一样本占位符标签、询问第二样本槽位的第二样本占位符以及与所述第二样本占位符对应的系统样本占位符;
[0036]使用所述题目问答样本集,对含有BERT编码器和soft

copy机制解码器的Seq2Seq
模型进行训练,得到预设题目问答模型。
[0037]根据本专利技术提供的一种自然语言问答方法,所述预设Seq2Seq模型的训练过程,包括:
[0038]获取闲聊对话样本数据集,所述闲聊对话样本数据集包括接口采集的对话样本数据和实际采集的对话样本集;
[0039]使用所述闲聊对话样本数据集,对含有循环神经网络和注意力机制的Seq2Seq模型进行训练,得到预设Seq2Seq模型。
[0040]根据本专利技术提供的一种自然语言问答方法,在所述将所述问答结果显示于所述交互界面之后,所述方法还包括:
[0041]针对所述问答结果反馈的需求未满足信息,指示用户与助教进行互动。
[0042]本专利技术还提供一种自然语言问答系统,包括:
[0043]网页交互模块,用于在交互界面上接收用户问题;
[0044]对话管理模块,用于对所述用户问题进行分类,得到目标分类结果,并基于本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种自然语言问答方法,其特征在于,包括:对用户问题进行分类,得到目标分类结果;基于所述目标分类结果,对所述用户问题进行知识问答处理、题目问答处理或者闲聊对话处理,得到所述用户问题的问答结果;将所述问答结果显示于交互界面上。2.根据权利要求1所述的自然语言问答方法,其特征在于,所述对用户问题进行分类,得到目标分类结果,包括:使用预设BERT

sotfmax模型,计算用户问题分别为不同分类标签时对应的目标分类概率;基于所述目标分类概率,确定目标分类结果。3.根据权利要求1所述的自然语言问答方法,其特征在于,所述基于所述目标分类结果,对所述用户问题进行知识问答处理,得到所述用户问题的问答结果,包括:确定所述目标分类结果表征所述用户问题属于知识问答类时,使用预设BERT

BiLSTM

CRF模型,获取所述用户问题中以预设序列标注输出的目标实体;基于预先存储的学科知识图谱数据,确定与所述目标实体语义相似度最高的目标候选关系;基于所述目标候选关系和所述目标实体,生成目标查询语句;从所述学科知识图谱数据中检索得到所述目标查询语句对应的问答结果。4.根据权利要求1所述的自然语言问答方法,其特征在于,所述基于所述目标分类结果,对所述用户问题进行题目问答处理,得到所述用户问题的问答结果,包括:确定所述目标分类结果表征所述用户问题属于题目问答类时,使用预设题目问答模型,生成所述用户问题的用户动作标签文本;基于所述用户动作标签文本和预先存储的课程题目数据,获取与所述用户动作标签文本对应的系统动作标签文本;基于所述系统动作标签文本,生成符合自然语言形式的问答结果;其中,所述用户动作标签包括提供第一槽位的第一占位符标签和询问第二槽位的第二占位符,所述预设题目问答模型包括使用题目问答样本数据集训练含有BERT编码器和soft

copy机制解码器的Seq2Seq模型所得的模型。5.根据权利要求1所述的自然语言问答方法,其特征在于,所述基于所述目标分类结果,对所述用户问题进行闲聊对话处理,得到所述用户问题的问答结果,包括:确定所述目标分类结果表征所述用户问题属于闲聊对话类时,使用预设Seq2Seq模型,生成与所述用户问题匹配的问答结果;其中,所述预设Seq2Seq模型用于使用训练好的循环神经网络和注意力机制学习所述用户问题后预测对应的问答结果。6.根据权利要求2所述的自然语言问答方法,其特征在于,所述预设BERT

sotfmax模型的训练过程,包括:获取分类样本数据集和分类标签,所述分类样本数据集包括知识问句样本数据、题目问句样本数据和闲聊语句样本数据,所述分类标签包括知识问答、题目问答和闲聊对话;针对所述分类样本数据集对应选取所述分类标签,构成正样本集,以及针对所述分类
样本数据集随机选取所述分类标签,构成负样本集;采用所述正样本集和所述负样本集对含有双向Transformer编码器的BERT模型和softmax编码器进行训练,得...

【专利技术属性】
技术研发人员:张春红付东君于长宏朱新宁赵慧詹志强
申请(专利权)人:北京邮电大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1