摘要

语音识别一般只是将语音转化成文字,识别的结果是没有标点的一连串汉字,这不利于读者阅读,也会影响后续任务的处理。因此,引入语音端点检测解决上述问题。同时针对传统的语言模型N-gram存在忽略字词之间语义的相似性、训练时的参数过大等问题,提出一种以全序列卷积神经网络DFCNN作为声学模型,Transformer作为语言模型的语音识别系统。在Thchs30、ST-CMDS数据集上的实验表明,相较于DFCNN结合3-gram模型,该系统在最优模型上达到了12.8%的字符错误率,相对下降了6.9%。