The present invention in a speech recognition method based on hierarchical recurrent neural network language model, the main contents include: using RNN character level language modeling, using an external clock and reset signals extended RNN structure, with hierarchical RNN character level language modeling, speech recognition, the process, character level language modeling using the RNN then, the extended RNN structure with external clock and reset signals, character level language modeling with RNN classification, finally speech recognition. A single clock RNN character level language model to replace the traditional recurrent neural network language model based on the invention, it has better recognition accuracy, reduces the number of parameters; language model vocabulary, smaller storage space needs; hierarchical language model can be extended to a longer period of information processing, such as sentence, topic or other context.
【技术实现步骤摘要】
一种基于分层循环神经网络语言模型的语音识别方法
本专利技术涉及语音识别领域,尤其是涉及了一种基于分层循环神经网络语言模型的语音识别方法。
技术介绍
随着现代技术的发展,基于循环神经网络(RNN)的字符级语言模型(CLMs)在语音识别、文本生成和机器翻译等领域应用广泛。它对于自然界中未见的单词的建模非常有用。然而,它们的性能通常比词级语言模型(WLMs)差得多。而且,统计语言模型需要大的存储空间,通常超过1GB,因为不仅要考虑大量的词汇,还需要考虑它们的组合。本专利技术提出了一种基于分层循环神经网络语言模型的语音识别方法,其分级RNN架构由具有不同时钟速率的多个模块组成。尽管是多时钟结构,但是输入层和输出层都是以字符级时钟操作,这允许现有的RNN字符级语言模型训练方法可以直接应用而不需要任何修改。首先使用RNN的字符级语言建模,接着用外部时钟和复位信号扩展RNN结构,具有分级RNN的字符级语言建模,最后进行语音识别。本专利技术用基于分层循环神经网络语言模型替换传统的单时钟RNN字符级语言模型,具有更好的识别精度,降低了参数的数量;语言模型词汇量大,需要的存储空间更小;分层语言模型可以被扩展以处理更长时期的信息,例如句子,主题或其他上下文。
技术实现思路
针对识别精度不高,所占存储空间大等问题,本专利技术的目的在于提供一种基于分层循环神经网络语言模型的语音识别方法,首先使用RNN的字符级语言建模,接着用外部时钟和复位信号扩展RNN结构,具有分级RNN的字符级语言建模,最后进行语音识别。为解决上述问题,本专利技术提供一种基于分层循环神经网络语言模型的语音识别方法,其 ...
【技术保护点】
一种基于分层循环神经网络语言模型的语音识别方法,其特征在于,主要包括使用RNN的字符级语言建模(一);用外部时钟和复位信号扩展RNN结构(二);具有分级RNN的字符级语言建模(三);进行语音识别(四)。
【技术特征摘要】
1.一种基于分层循环神经网络语言模型的语音识别方法,其特征在于,主要包括使用RNN的字符级语言建模(一);用外部时钟和复位信号扩展RNN结构(二);具有分级RNN的字符级语言建模(三);进行语音识别(四)。2.基于权利要求书1所述的基于分层循环神经网络的语言模型,其特征在于,它结合了字符级和词级语言模型的有利特性;循环神经网络(RNN)由低级RNNs和高级RNNs组成;低级RNN采用字符级输入和输出,并且向作为词级RNN操作的高级RNN提供短期嵌入;高级RNN不需要复杂的输入和输出,因为它从低级网络接收特征信息,并且以压缩形式将字符预测信息发送回低级;因此,当考虑输入和输出时,所提出的网络是一个字符级语言模型(CLM),但它包含一个词级模型;低级模块使用字符输入时钟,而高级模块使用分隔字的空格(<w>)运行;该分层语言模型可以被扩展,以处理更长时期的信息,例如句子,主题或其他上下文;分层语言模型可以用基于文本的字符来进行端对端训练。3.基于权利要求书1所述的使用RNN的字符级语言建模(一),其特征在于,对于训练RNNCLMs,训练数据应首先转换为独热编码字符向量序列xt,其中字符包括字边界符号<w>,或空格,以及可选的句子边界符号<s>;训练RNN,通过使表示下一个字符的概率分布的softmax输出的交叉熵损失最小化来预测下一个字符xt+1。4.基于权利要求书1所述的用外部时钟和复位信号扩展RNN结构(二),其特征在于,大多数类型的RNNs可以被概括为st=f(xt,st-1)(1)yt=g(st)(2)其中,xt是输入,st是状态,yt是时间步骤t的输出,f(·)是递归函数,g(·)是输出函数;例如,Elman网络可以表示为st=ht=σ(Whxxt+Whhht-1+bh)(3)yt=ht(4)其中,ht是隐层的激活,σ(·)是激活函数,Whx和Whh是权重矩阵,bh是偏置向量;具有遗忘门和窥视孔连接的LSTMs也可以转换为泛化形式;LSTM层的前向方程如下:it=σ(Wixxt+Wihht-1+Wimmt-1+bi)(5)ft=σ(Wfxxt+Wfhht-1+Wfmmt-1+bf)(6)ot=σ(Woxxt+Wohht-1+Wommt+bo)(8)ht=ottanh(mt)(9)其中,it,ft和ot分别是输入门,遗忘门和输出门的值,mt是存储器单元激活,ht是输出激活,σ(·)是逻辑S型函数,是元素智能乘法运算符;这些方程可以通过设置st=[mt,ht]和yt=ht来概括。5.基于权利要求书4所述的用外部时钟和复位信号扩展RNN结构,其特征在于,任何广义RNNs可以被转换为并入外部时钟信号的那些RNNs,ct,如st=(1-ct)st-1+ctf(xt,st-1)(10)yt=g(st)(11)其中,ct是0或1;RNN仅在ct=1时更新其状态和输出;否则,当ct=0时,状态和输出值保持与前一步骤相同;通过将st-1设置为0来执行RNN的重置;具体地,公式(10)变为st=(1-ct)(1-rt)st-1+ctf(xt,(1-rt)st-1)(12)其中,复位信号rt=0或1;当rt=1时,RNN忘记先前的上下文;如果原始RNN方程是可微分的,则具有时钟和复位信号的扩展方程也是可微分的;...
【专利技术属性】
技术研发人员:夏春秋,
申请(专利权)人:深圳市唯特视科技有限公司,
类型:发明
国别省市:广东,44
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。