神经网络机器翻译方法和装置制造方法及图纸

技术编号:18658023 阅读:36 留言:0更新日期:2018-08-11 14:26
本发明专利技术公开了神经网络机器翻译方法和装置,所述方法包括:获取待翻译的源语句;将源语句转换为向量序列;根据预先得到的、基于目标语句数据库所构建的前缀树,确定出向量序列对应的候选对象,根据候选对象确定出作为翻译结果的目标语句。应用本发明专利技术所述方案,能够提升翻译速度等。

Neural network Machine Translation method and device

The invention discloses a neural network machine translation method and apparatus, which include: acquiring source statements to be translated; converting source statements into vector sequences; determining candidate objects corresponding to vector sequences according to the prefix tree obtained beforehand and constructed based on the target statement database; and determining the candidate objects to be translated according to the candidate objects. Target statement for translation result. Applying the scheme of the invention, the translation speed can be improved.

【技术实现步骤摘要】
神经网络机器翻译方法和装置
本专利技术涉及计算机应用技术,特别涉及神经网络机器翻译方法和装置。
技术介绍
循环神经网络及其衍生网络作为目前最流行的深度学习网络结构,凭借着有效记忆历史信息等特点,在图像识别、语音识别以及自然语言处理等方面得到了越来越广泛的应用。以翻译为例,神经网络机器翻译是近些年兴起的一种全新的机器翻译方式,相比于传统的统计翻译模型,翻译质量得到了很大地提升。神经网络机器翻译主要包括编码和解码两个过程,编码过程主要是指将待翻译的源语句转换为向量序列,解码过程主要是指根据向量序列确定出作为翻译结果的目标语句。比如,源语句可为一种语言,目标语句可为另外一种语言。其中,在解码过程中,在针对向量序列中的每个待翻译的词确定候选对象时,均需要针对词库中包括的所有词分别计算条件概率,而词库中包括的词的数量巨大,相应地,所需耗费的计算量也就会非常大,从而降低了翻译速度。
技术实现思路
有鉴于此,本专利技术提供了神经网络机器翻译方法和装置,能够提升翻译速度。具体技术方案如下:一种神经网络机器翻译方法,包括:获取待翻译的源语句;将所述源语句转换为向量序列;根据预先得到的、基于目标语句数据库所构建的前缀树,确定出所述向量序列对应的候选对象,根据所述候选对象确定出作为翻译结果的目标语句。一种神经网络机器翻译装置,包括:编码单元和解码单元;所述编码单元,用于获取待翻译的源语句,将所述源语句转换为向量序列,并将所述向量序列发送给所述解码单元;所述解码单元,用于根据预先得到的、基于目标语句数据库所构建的前缀树,确定出所述向量序列对应的候选对象,根据所述候选对象确定出作为翻译结果的目标语句。基于上述介绍可以看出,采用本专利技术所述方案,可预先基于目标语句数据库构建前缀树,进而在翻译过程中,可根据前缀树来确定候选对象,从而相比于现有技术减少了计算量,进而提升了翻译速度。【附图说明】图1为本专利技术所述神经网络机器翻译方法实施例的流程图。图2为本专利技术所述前缀树的示意图。图3为本专利技术所述解码过程的流程图。图4为本专利技术所述神经网络机器翻译装置实施例的组成结构示意图。【具体实施方式】为了使本专利技术的技术方案更加清楚、明白,以下参照附图并举实施例,对本专利技术所述方案作进一步地详细说明。实施例一图1为本专利技术所述神经网络机器翻译方法实施例的流程图,如图1所示,包括以下具体实现方式。在11中,获取待翻译的源语句。如何获取不作限制。在12中,将源语句转换为向量序列。即对源语句进行编码,从而得到所需的向量序列。现有技术中,通常采用长短时间记忆网络(LSTM,LongShortTermMemory)模型来对源语句进行编码,这种模型的网络结构复杂,会导致编码速度较慢,从而降低了翻译速度。针对上述问题,本实施例中提出,可采用门控递归单元(GRU,GatedRecurrentUnit)模型来代替LSTM模型,从而降低了模型的复杂度,进而提升了翻译速度。即本实施例中,通过GRU模型,将源语句转换为向量序列,如何进行转换为现有技术。在13中,根据预先得到的、基于目标语句数据库所构建的前缀树,确定出向量序列对应的候选对象,根据候选对象确定出作为翻译结果的目标语句。即将向量序列解码为目标语句。在实际应用中,可首先通过人工等方式构建出一个目标语句数据库,目标语句数据库中具体包括哪些语句可根据实际需要而定。之后,可基于所构建的目标语句数据库,进一步构建出前缀树。前缀树,又可称为字典树等,是一种树形结构。举例说明:为简化表述,用每个字母来分别代表一个词;假设目标语句数据库中包括以下语句:{inn、int、ate、age、adv、ant};那么根据该目标语句数据库,可构建出图2所示前缀树,即图2为本专利技术所述前缀树的示意图。这样,基于所构建的前缀树,针对向量序列中的各待翻译的词,可依次进行以下处理:分别将最新获取到的各候选对象作为前缀,从前缀树中查找出位于该前缀的下一级节点上的词,将查找出的词分别拼接在对应的前缀上,得到各初选对象;分别确定出各初选对象的条件概率,并按照条件概率的取值从大到小的顺序对各初选对象进行排序,将排序后处于前N位的初选对象作为候选对象,N为大于一的正整数;若确定向量序列中不存在下一个待翻译的词,则将最新获取到的、排序后处于前M位的候选对象作为目标语句输出,M为正整数,M小于或等于N。特殊地,对于向量序列中的第一个待翻译的词,由于此时还不存在候选对象,因此可进行以下处理:将前缀树中位于树根之后的第一级节点上的词均作为初选对象;分别确定出各初选对象的条件概率,并按照条件概率的取值从大到小的顺序对各初选对象进行排序,将排序后处于前N位的初选对象作为候选对象。综合上述介绍,图3为本专利技术所述解码过程的流程图,如图3所示,包括以下具体实现方式。在31中,针对向量序列中的第一个待翻译的词,将前缀树中位于树根之后的第一级节点上的词均作为初选对象。以图2所示为例,位于树根之后的第一级节点即指“i”和“a”对应的节点。在32中,分别确定出各初选对象的条件概率,并按照条件概率的取值从大到小的顺序对各初选对象进行排序,将排序后处于前N位的初选对象作为候选对象,N为大于一的正整数。N的具体取值可根据实际需要而定。基于哪些信息来计算条件概率为现有技术。在33中,确定向量序列中是否存在下一个待翻译的词,如果是,则执行34,否则,执行35。假设向量序列中共包括五个待翻译的词,当前处理的即为第五个词,那么则不存在下一个待翻译的词,相应地,后续执行35,否则,执行34。在34中,针对下一个待翻译的词,分别将最新获取到的各候选对象作为前缀,从前缀树中查找出位于该前缀的下一级节点上的词,将查找出的词分别拼接在对应的前缀上,得到各初选对象,之后重复执行32。以图2所示为例,假设最新获取到的候选对象为“in”和“at”,将其分别作为前缀,查找下一级节点,并通过拼接可得到“inn”、“int”和“ate”,将inn”、“int”和“ate”均作为初选对象。在35中,将最新获取到的、排序后处于前M位的候选对象作为目标语句输出,M为正整数,M小于或等于N,之后结束流程。如果针对向量序列中的各待翻译的词均已处理完毕,则可直接将最新获取到的、排序后处于前M位的候选对象作为所需的目标语句输出。M的具体取值可根据实际需要而定,比如,可取值为一,也可以大于一,但不会超过N。通过上述介绍可以看出,采用本实施例所述方案,可预先基于目标语句数据库构建前缀树,进而在翻译过程中,可根据前缀树来查找和确定初选对象,并计算初选对象的条件概率以确定出候选对象,相比于现有技术中针对词库中包括的所有词分别计算条件概率的方式,显著地减少了计算量,从而提升了翻译速度。而且,基于上述前缀树的构建方式及使用方式可知,最终得到的目标语句一定会是目标语句数据库中的语句,从而实现了定向翻译。另外,现有技术中,通常采用softmax算法来计算各初选对象的条件概率,计算复杂度很高,针对这一问题,本实施例中提出,可以采用self-normalization算法来计算出各初选对象的条件概率,具体实现为现有技术,从而不但降低了计算复杂度,而且可以与本专利技术所述解码方式很好地进行匹配,进而进一步提升了翻译速度。再有,图3所示流程的32中,在按照本文档来自技高网...

【技术保护点】
1.一种神经网络机器翻译方法,其特征在于,包括:获取待翻译的源语句;将所述源语句转换为向量序列;根据预先得到的、基于目标语句数据库所构建的前缀树,确定出所述向量序列对应的候选对象,根据所述候选对象确定出作为翻译结果的目标语句。

【技术特征摘要】
1.一种神经网络机器翻译方法,其特征在于,包括:获取待翻译的源语句;将所述源语句转换为向量序列;根据预先得到的、基于目标语句数据库所构建的前缀树,确定出所述向量序列对应的候选对象,根据所述候选对象确定出作为翻译结果的目标语句。2.根据权利要求1所述的方法,其特征在于,所述将所述源语句转换为向量序列包括:通过门控递归单元GRU模型,将所述源语句转换为向量序列。3.根据权利要求1所述的方法,其特征在于,根据所述前缀树确定出所述向量序列对应的候选对象,根据所述候选对象确定出所述目标语句包括:针对所述向量序列中的各待翻译的词,依次进行以下处理:分别将最新获取到的各候选对象作为前缀,从所述前缀树中查找出位于所述前缀的下一级节点上的词,将查找出的词分别拼接在对应的前缀上,得到各初选对象;分别确定出各初选对象的条件概率,并按照条件概率的取值从大到小的顺序对各初选对象进行排序,将排序后处于前N位的初选对象作为候选对象,N为大于一的正整数;若确定所述向量序列中不存在下一个待翻译的词,则将最新获取到的、排序后处于前M位的候选对象作为所述目标语句输出,M为正整数,M小于或等于N。4.根据权利要求3所述的方法,其特征在于,该方法进一步包括:对于所述向量序列中的第一个待翻译的词,将所述前缀树中位于树根之后的第一级节点上的词均作为初选对象;分别确定出各初选对象的条件概率,并按照条件概率的取值从大到小的顺序对各初选对象进行排序,将排序后处于前N位的初选对象作为候选对象。5.根据权利要求3或4所述的方法,其特征在于,该方法进一步包括:针对排序后处于前N位的初始对象,从中筛选出条件概率大于预定阈值的初始对象,将筛选出的初始对象作为候选对象。6.根据权利要求3或4所述的方法,其特征在于,所述分别确定出各初选对象的条件概率包括:采用self-normalization算法,分别确定出各初选对象的条件概率。7.根据权利要求1、2、3或4所述的方法,其特征在于,在所述方法的执行过程中,当进行矩阵运算时,对于稀疏矩阵,采用向量拆分和线程池并行计算的方式进行矩阵运算,对于非稀疏矩阵,采用IntelMathKernelLibrary进行多线程并发的矩阵运算。8.根据权利要求1所述的方法,其特征在于,在图形处理器GPU...

【专利技术属性】
技术研发人员:严春伟陈志杰官瀚举曹莹张克丰黄威童牧晨玄
申请(专利权)人:百度在线网络技术北京有限公司
类型:发明
国别省市:北京,11

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1