【技术实现步骤摘要】
一种基于掩码机制的篇章级神经机器翻译方法及系统
[0001]本专利技术涉及一种神经机器翻译方法及系统,具体涉及一种基于掩码机制的篇章级神经机器翻译方法和系统,属于自然语言处理和语言翻译
技术介绍
[0002]神经机器翻译技术(Neural Machine Tranlation,简称NMT),是一种使用深度学习神经网络获取自然语言之间的映射关系的方法,是自然语言处理中的重要任务。NMT使用基于神经网络的技术来实现更多上下文精确翻译,而不是一次翻译一个单词的破碎句子。NMT能够学习和收集信息,分两个阶段进行分析:编码和解码。在编码阶段,来自然语言的文本信息被输入到机器中,随后被分类到语言向量中。在上下文中,相似的单词将被放置在可比较的单词向量中。在解码阶段,将有效且无缝地把矢量发送到目标语言。
[0003]篇章级机器翻译,旨在使用计算机将一个篇章从一种语言自动翻译成另一种语言,是机器翻译中一项十分富有挑战性的任务。近年来,随着神经机器翻译的快速发展,篇章神经机器翻译已经成为了机器翻译领域的热门方向,该技术使得译文在整篇文档或特定的语义环境中,能够保持翻译风格的一致性和翻译的准确性。随着深度学习的快速发展,端到端的模型架构能够帮助神经机器翻译直接将源语言句子转换到目标语言句子。相比于传统句子神经机器翻译,篇章神经机器翻译通过建模并利用篇章级别的上下文信息,由此产生质量更高的译文。
[0004]现有技术中,通常采用多编码器的方式来解决神经机器翻译中的篇章级翻译难题。利用额外的编码器对上下文进行编码, ...
【技术保护点】
【技术特征摘要】
1.一种基于掩码机制的篇章级神经机器翻译方法,其特征在于,包括以下步骤:步骤1:输入源语言句子,通过随机掩码方式,编码生成具备上下文的编码信息Enc(X);步骤1.1:待翻译句子X
curr
中的每个单词,以概率p被掩码符号所替换;步骤1.2:选定待翻译句子的前文X
prev
作为上下文,并将经掩码处理后的待翻译句子与上下文进行拼接,得到输入序列X
input
;步骤1.3:输入序列X
input
经过编码器的嵌入层,被逐词映射为词向量,嵌入层输出由词向量组成的序列Emb(X);步骤1.4:将序列Emb(X)送入编码器中进行编码,获得具备上下文的编码序列Enc(X);序列Emb(X)通过编码器的多头自注意力层和线性层进行编码,将该过程重复N次,最后得到Enc(X);步骤2:将经过编码器得到的编码序列Enc(X)送入结构与编码器一致的降噪自编码解码器中,得到降噪自编码输出序列Dec
Enc
(Enc(X));步骤3:利用编码器输出和解码器输入,输出解码序列Dec(Y);步骤3.1:根据前文X
prev
的长度和待翻译句子X
curr
的长度,对步骤1.4中具备上下文的编码表示Enc(X)做切割,获取上下文编码序列Enc(X)
prev
和待翻译句子的编码序列Enc(X)
curr
;步骤3.2:选取步骤1.1中待翻译句子X
curr
所对应的目标语言句子Y
tok
,送入编码器的嵌入层,逐词映射为词向量,嵌入层输出由词向量组成的目标语言序列Emb(Y);步骤3.3:利用解码器对目标语言序列Emb(Y)进行解码,得到解码序列Dec(Y);目标语言序列表示Emb(Y)通过解码器的自注意力层,利用多头注意力层和上下文编码序列Enc(X)
prev
以及待翻译句子X
curr
的编码序列Enc(X)
curr
进行融合,再经过解码器的线性层;该过程重复N次,最终得到解码序列Dec(Y);步骤4:将步骤2的降噪自编码输出序列Dec
Enc
(Enc(X))与步骤1.3的拼接序列Emb(X)作比较,将解码序列Dec(Y)与目标语言参考编码序列Ref(Y)作比较,将差值加权相加,作为模型损失L1;步骤5:根据模型损失使用梯度下降方法,重复步骤1至步骤4,直至模型收敛,得到翻译模型M;步骤6:在步骤5得到的翻译模型M上,继续使用现有数据,在不做掩码的基础上进行训练;步骤6.1:选定待翻译句子X
curr
的前文X
prev
作为上下文,并将待翻译句子X
curr
与上下文进行拼接,得到输入序列X
input
′
;步骤6.2:输入序列X
input
′
经过编码器的嵌入层,被逐词映射为词向量,嵌入层输出由词向量组成的序列Emb(X
′
);步骤6.3:将序列Emb(X
′
)送进编码器中,经过编码获得具备上下文的编码序列Enc(X
′
);序列Emb(X
′
)通过编码器的多头自注意力层和线性层进行编码,该过程重复N次,最后得到Enc(X
′
);步骤7:与步骤3过程相同,编码器输出来自步骤6.3的Enc(X
′
),输出解码序列Dec(Y
′
);步骤8:将步骤7的解码序列Dec(Y
′
)与目标语言参考编码序列Ref(Y)作比较,将差值作为模型损失L2;
步骤9:根据模型损失L2使用梯度下降方法,重复步骤6至步骤8,直至模型收敛,得到翻译模型M
′
;步骤10:将非训练集的源语言句子X
t
、源语言句子的前文X
t
‑1,送入翻译模型M
′
,得到最终翻译的译文。2.如权利要求1所述的一种基于掩码机制的篇章级神经机器翻译方法,其特征在于,步骤1.4中,的多头自注意力层的过程如下:首先,将词向量组成的序列Emb(X)中的每一个词向量通过矩阵映射为查询值Q、键值K和值V:Q=W
Q
·
e
ꢀꢀꢀꢀ
(1)K=W
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。