摘要

首先采用长短时记忆单元替换递归神经网络隐含层中的神经元,避免梯度消失问题。其次将LSTM RNNLM应用在二次解码过程中。在语音解码时,递归神经网络语言模型使Lattice的扩展次数过多,导致搜索空间太大而影响搜索速度,因此Lattice不适宜引入高级语言模型进行重打分。相比之下,N-best的线性结构更适合引入包含长距离信息的模型,因此采用N-best进行LSTM RNNLM重打分,并对识别结果进行重排序。最后在Penn Treebank语料库和WSJ语料库上分别进行困惑度和连续语音识别实验。实验表明该方法有效降低语言模型的困惑度,提高连续语音识别系统的性能。

  • 单位
    信息工程大学