The invention discloses a dialogue response generation method and system based on enhanced two-channel sequential learning. The steps of the method are as follows: (1) modeling the context to obtain context semantic vectors; (2) combining current dialogue and context semantic vectors with learning by encoder to obtain current dialogue vectors and encoding. (3) input the context semantic vector and the current dialogue vector into the decoder to get the first channel dialogue reply draft and decoder vector; (4) input the encoder vector and decoder vector as well as the first channel dialogue reply draft into the polisher for polishing, and generate the second channel polished dialogue reply; (5) benefit. The objective function is optimized by the reinforcement learning algorithm; (6) after the model training is completed, the dialogue is returned and output. By using the invention, the dialog generation model can grasp the global information more deeply and generate substantive replies more in line with the dialog scene.
【技术实现步骤摘要】
一种基于强化双通道序列学习的对话回复生成方法及系统
本专利技术涉及自然语言处理对话系统领域,具体涉及一种基于强化双通道序列学习的对话回复生成方法及系统。
技术介绍
近年来,我们目睹了人机交互系统的繁荣发展。伴随着大量公开可利用的网上在线对话语料库,对话系统受到了广泛来自工业界和学术界研究者的关注。诸如苹果siri助手,微软的cortana助手以及小冰聊天机器人等的出现,让人机交互系统走入了千家万户。本专利技术的主要研究领域,是对话系统中最核心的技术——对话回复生成。在给定对话上下文语境的前提下,模型被要求能够根据当前对话内容,自动生成符合正常聊天逻辑的对话回复。一个高效的对话回复生成模型,需要能够明确捕捉上下文语境信息,以及对当前对话的语义理解,并能够生成符合人类口语,且具有逻辑的合理回复。目前,主流的对话生成技术,主要依赖Bahdanau等人在2014年ComputerScience期刊上提出的编码器-解码器生成框架Attn-Seq2Seq《NeuralMachineTranslationbyJointlyLearningtoAlignandTranslate》。即输入一句对话,框架先对这句对话进行编码,得到一个对该句话整体的表示向量。再利用解码器,以该向量作为输入,一个词一个词地生成另一句话,生成的这句话,可以看出就是机器生成的对话回复。众多的对话生成算法,都是基于该框架的基础上,做出自己的相应改进。2016年美国人工智能协会AssociationfortheAdvancementofArtificialIntelligence在会上收录的《Build ...
【技术保护点】
1.一种基于强化双通道序列学习的对话回复生成方法,其特征在于,包括以下步骤:(1)对上下文进行建模,获取上下文语义向量;(2)利用编码器将当前对话和上下文语义向量结合学习,得到当前对话向量以及编码器向量;(3)将上下文语义向量和当前对话向量输入解码器,得到第一通道对话回复草稿以及解码器向量;(4)将编码器向量与解码器向量以及第一通道对话回复草稿输入润饰器进行润饰,生成第二通道经过润饰的对话回复;(5)利用强化学习算法优化目标函数;(6)模型训练完毕,生成对话回复并输出。
【技术特征摘要】
1.一种基于强化双通道序列学习的对话回复生成方法,其特征在于,包括以下步骤:(1)对上下文进行建模,获取上下文语义向量;(2)利用编码器将当前对话和上下文语义向量结合学习,得到当前对话向量以及编码器向量;(3)将上下文语义向量和当前对话向量输入解码器,得到第一通道对话回复草稿以及解码器向量;(4)将编码器向量与解码器向量以及第一通道对话回复草稿输入润饰器进行润饰,生成第二通道经过润饰的对话回复;(5)利用强化学习算法优化目标函数;(6)模型训练完毕,生成对话回复并输出。2.根据权利要求1所述的基于强化双通道序列学习的对话回复生成方法,其特征在于,步骤(1)中,采用深度循环神经网络和注意力机制相结合的方式进行上下文信息建模,所述上下文语义向量的计算公式为:其中,Cu表示上下文语义向量,aj,t表示第j个单词受到第t个隐含状态影响的注意力权重,M为上下文出现的所有单词个数,wj为上下文中出现第j个单词的词向量表示,aj,t计算公式为:其中,ht为第t个当前单词的隐含状态表示,zj为第j个单词在上下文语境中的语义表示,zj的计算公式为:zj=tanh(Wm-1zj-1+Wm+1zj+1+bm)其中,zj-1和zj+1为前个单词和后个单词隐含表示,Wm-1,Wm+1,bm是训练得到的参数,tanh是正切激活函数。3.根据权利要求1所述的基于强化双通道序列学习的对话回复生成方法,其特征在于,步骤(2)中,所述的编码器向量计算公式为:其中,Cx为初始编码器得到的上下文语义表示,αi代表初始解码器受到上下文语境Cu和当前单词学习到的隐含状态的注意力权重,为学习的参数,tanh为正切激活函数,控制注意力权重的范围。4.根据权利要求1所述的基于强化双通道序列学习的对话回复生成方法,其特征在于,步骤(3)中,所述第一通道对话回复草稿生成的公式为:其中,hi是通过深度循环神经网络学习到对话的原始隐含状态,Cu为对话的上下文信息,表示第一通道解码器最终生成的第i个单词隐含信息,s*表示一系列组合而成的完整表示:通过softmax函数,最终的每个生成隐含信息用来从多模态信息中采样得到由隐含函数决定的第一通道生成的单词。5.根据权利要求1所述的基于强化双通道序列学习的对话回复生成方法,其特征在于,步骤(3)中,所述的解码器向量计算公式为:其中,βi表示上下文信息与第一通道生成的第i个单词之间的注意力权重,表示第二通道生成的上...
【专利技术属性】
技术研发人员:陈哲乾,蔡登,赵洲,何晓飞,
申请(专利权)人:浙江大学,
类型:发明
国别省市:浙江,33
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。