1、kaldi的脚本中的decode.sh步骤都可以注释掉,减少训练的时间。decode是计算test语料的正确率。
2、lexicon.txt其实直接用dacidian就可以,不用从语料中训练。其实就是每个词的发音,没有任何其他作用
3、最耗时的步骤就是训练神经网络。如果在训练过程中断,可以修改steps/nnet3/train_dnn.py脚本从断点的iteration开始跑,不需要从头开始跑。删除已经跑过的语句,再需要修改iter和num_archives_processed,然后就可以从断点开始跑了。
4、如果识别效果不好,可能有如下的原因:语言模型中没有正确的词汇、识别的phone不对、识别的词图不对。这些步骤的结果都可以用命令检查。
5、识别的结果中有unk,那么是因为lexicon.txt没有对应的词。