【技术实现步骤摘要】
适用于对话系统的以会话内容驱动的问题生成方法
[0001]本专利技术属于自然语言处理
,特别是涉及一种适用于对话系统的问题生成方法。
技术介绍
[0002]对话是人与人之间寻求和交流信息的主要手段,而提出有用的问题是有效交流知识的重要前提。问题生成(QG)任务就是指给定各种各样的输入(如原始文本,数据库,语义表示)自动生成问题。虽然不像问题回答(QA)任务那么突出,但在自然语言处理领域中仍然是一个重要的任务,问题生成可以有效地应用于很多领域,包括回答问题、对话系统和教育领域等。
[0003]传统的问题生成的实现方法依赖于启发式规则,即在语法和词法分析之后,对句子进行句法转换以生成相应的问题。然而,这些方法需要特别精心设计的转换和生成规则,因此导致泛化性很低。随着深度学习方法的不断发展,越来越多的深度学习方法如循环神经网络(RNN)、长短期记忆网络(LSTM)以及门控循环单元(GRU)用于解决对话系统的技术问题。
[0004]对话的问题生成任务比单论的问题生成任务更具有挑战性,因为在对话中问题本身往往高度模糊,需要模型对围绕文章文本和对话历史的上下文有更深刻的理解,才能提出有实际意义的问题。大多数问题生成任务研究只使用短文和对话历史作为输入(即不知道答案)生成问题,而答案感知对话问题生成模型则是基于目标答案、对话历史和篇章生成问题。尽管答案感知的对话问题生成模型寻求改善生成的对话流,但目前的答案感知的问题生成模型存在一些问题,包括不准确的共引用对齐、对话不一致、不正确的语法以及无法生成许多不同类型 ...
【技术保护点】
【技术特征摘要】
1.一种适用于对话系统的以会话内容驱动的问题生成方法,其特征在于,该方法包括以下步骤:步骤一:从包含问题+答案的数据集中标注和提取答案部分的关键词作为命名实体,以该命名实体作为输入;步骤二:利用约束语言模型CLM将作为输入的命名实体生成带有关键词的句子的序列,作为步骤三的输入;具体如下:利用CLM模型一方面在当前输入的单词同时生成位于当前输入之前的单词和位于当前输入之后的单词,另一方面在一个句子w=w1,
…
,w
l
,输入的单词w
s
把句子划分成两部分,包括:关于前s个单词的前项序列为w
s
,w
s
‑1,w
s
‑2,
…
,w1;关于后l
‑
s+1个单词的后项序列为w
s
,w
s+1
,w
s+2
,
…
,w
l
,即在每个时间步中,单词嵌入的连接作为输入,生成序列是在最后一个时间步中生成的单词,将嵌入信息提供给一个共享的隐藏层,然后两个输出层分别预测正向和反向序列中的单词,从而生成一个包含单词w
s
的句子;步骤三:使用端到端模型框架进行问题生成,端到端框架模型包含编码器模块、解码器模块以及连接两者的中间状态向量,编码器模块通过学习输入的名实体,将其编码成一个固定大小的状态向量,继而将该向量传递给解码器模块,解码器模块再通过对这个状态向量的学习来进行输出一个问句;步骤3.1:利用编码器模块通过篇章编码和对话编码两部分来对两个来源的信息进行联合编码:利用一个双向LSTM网络模型进行篇章编码,以单词嵌入表示w
i
和答案位置嵌入表示a
i
的串联作为输入x
i
=[w
i
;a
i
],使用典型的BIO标记方案来表示答案范围,并将段落中的每个标记映射到相应的答案位置嵌入表示B_ANS,I_ANS,O,B_ANS表示答案的开始,I_ANS表示答案的中间部分,O表示不是答案部分;整个段落用双向LSTM编码器的隐藏状态表示其中,m表示序列长度,p表示篇章;进行对话编码,将对话历史C
i
‑1建模成“问题
‑
答案”的序列C
i
‑1={(Q1,A1,),
…
,(Q
i
‑1,A
i
‑1,)}使用<q><a>进行问题和答案的标注并连接起来形成一个token序列(<q>,q1,
…
q
m
;<a>,a1,
…
a
m
),其中,<q>表示问句标签;<a>表示答案句标签;使用一个token级别的双向LSTM来获得问答对的上下文的表示:其中,i表示是轮数,表示token级别的双...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。