(八)kaldi thchs30 单音素模型训练(line 62-68)

文章详细介绍了Kaldi中用于训练单音素模型的steps/train_mono.sh脚本,包括训练过程中的关键参数、特征处理、模型初始化、网络构造、数据对齐和统计量计算。此外,还提到了解码测试脚本local/thchs-30_decode.sh,用于对语音进行解码并计算准确率。最后,阐述了steps/align_si.sh用于数据对齐的步骤,强调了对齐在训练过程中的重要性。
摘要由CSDN通过智能技术生成

概览

先把代码放在这里:

#monophone   
steps/train_mono.sh --boost-silence 1.25 --nj $n --cmd "$train_cmd" data/mfcc/train data/lang exp/mono || exit 1;  
#test monophone model
local/thchs-30_decode.sh --mono true --nj $n "steps/decode.sh" exp/mono data/mfcc &
#monophone_ali                                                                  
steps/align_si.sh --boost-silence 1.25 --nj $n --cmd "$train_cmd" data/mfcc/train data/lang exp/mono exp/mono_ali || exit 1;

可以看到代码只有三行,其中:

  1. 第一行steps/train_mono.sh 用来训练单音素模型,主要输出为final.mdl和tree。训练的核心流程就是迭代对齐-统计算GMM与HMM信息-更新参数。

  2. 第二行local/thchs-30_decode.sh是解码和测试部分,它采用刚刚训练得到的模型来对测试数据集进行解码并计算准确率等信息。

  3. 第三行steps/align_si.sh 使用src-dir中的模型对data-dir中的数据进行对齐,将结果放在align-dir中。

下面对这三行对应的程序进行详细说明。

单音素模型训练 steps/train_mono.sh

先说一下比较重要的几个参数吧:

num_iters=40 | 迭代次数

max_iter_inc=30 | 指在迭代30次之后就不增加高斯数目了

totgauss=1000 | 目标高斯数

boost_silence=1.0 | 指对sil的likelihoods进行放大

realign_iters | 指迭代到哪次时进行re_ali

norm_vars=false | 不推荐,推荐–cmvn-opts “–norm-vars=false”

steps/train_mono.sh 的使用: “steps/train_mono.sh [options] ”,其中data-dir是训练数据所在的目录,lang-dir是语言模型所在的目录,exp-dir是日志文件和最终目标文件的输出目录.下面对重要/难理解的代码行进行说明:

line 57: 代码为:

    feats="ark,s,cs:apply-cmvn $cmvn_opts --utt2spk=ark:$sdata/JOB/utt2spk scp:$sdata/JOB/cmvn.scp scp:$sdata/JOB/feats.scp ark:- | add-deltas ark:- ark:- |"

这里因为Kaldi有自己的输入输出命令,因此较难理解,可以先看一下参考中的Kaldi中的I/O机制那里。首先这是一个feats变量的定义,该变量作为后续其他命令的参数用来处理特征数据。ark开头指定是ark类型,s,cs为其参数。后面在双引号中使用了两个Kaldi自带的函数apply-cmvn和add-deltas.其中apply-cmvn 的输入3个文件:

–utt2spk=ark:sdata/JOB/utt2spk语料和录音人员关联文件,scp:sdata/JOB/cmvn.scp 说话人相关的均值和方差,scp:$sdata/JOB/feats.scp 训练用特征文件.apply-cmvn是对feat.sco做CMVN….add-deltas的输入是ark:-,即管道符前的输出。它的输出也表示成ark:-,利用管道符传递结果。其功能是为训练数据增加差分量,比如13维的MFCC处理后变成39维(这里不太确定,但结果确实是39维)。

line 65-75:其代码为

if [ $stage -le -3 ]; then     
  # Note: JOB=1 just uses the 1st part of the features-- we only need a subset anyway.
  if ! feat_dim=`feat-to-dim "$example_feats" - 2>/dev/null` || [ -z $feat_dim ]; then            
    feat-to-dim "$example_feats"
    echo "error getting feature dimension"
    exit 1;                    
  fi                           
  $cmd JOB=1 $dir/log/init.log \
    gmm-init-mono $shared_phones_opt "--train-feats=$feats subset-feats --n=10 ark:- ark:-|"      $lang/topo $feat_dim \
    $dir/0.mdl $dir/tree || exit 1;
fi 

feat-to-dim “$example_feats” - 2>/dev/null 可以获取特征的维度(在这里的输出是39)。

gmm-init-mono 是通过少量的数据快速得到一个初始化的HMM-GMM 模型和决策树,属于Flat-start(又称为快速启动)。lang/topo 中定义了每个音素(phone)所对应的HMM 模型状态数以及初始时的转移概率。shared−phones=$lang/phones/sets.int 选项指向的文件,即lang/phones/sets.int(该文件生成roots.txt中开头为share split的部分,表示同一行元素共享pdf,允许进行决策树分裂),文件中同一行的音素(phone)共享 GMM 概率分布。tree文件由sets.int产生。

−−train−feats=feats subset-feats –n=10 ark:- ark:-|​$ 选项指定用来初始化训练用的特征,一般采用少量数据,程序内部会计算这批数据的means和variance,作为初始高斯模型。sets.int中所有行的初始pdf都用这个计算出来的means和variance进行初始化。numgauss那通过gmm-info命令即sed获取当前高斯数,而后在incgauss计算(目标高斯数 - 当前高斯数)/ 增加高斯迭代次数,得到每次迭代需要增加的高斯数目.

line 80-86:

if [ $stage -le -2 ]; then
  echo "$0: Compiling training graphs"
  $cmd JOB=1:$nj $dir/log/compile_graphs.JOB.log \
    compile-train-graphs $dir/tree $dir/0.mdl  $lang/L.fst \
    "ark:sym2int.pl --map-oov $oov_sym -f 2- $lang/words.txt < $sdata/JOB/text|" \
    "ark:|gzip -c >$dir/fsts.JOB.gz" || exit 1;
fi 

构造训练的网络,从源码级别分析,是每个句子构造一个phone level 的fst网络。sdaba/JOB/text 中包含对每个句子的单词(words level)级别标注, L.fst是字典对于的fst表示,作用是将一串的音素(phones)转换成单词(words)。构造monophone解码图就是先将text中的每个句子,生成一个fst(类似于语言模型中的G.fst,只是相对比较简单,只有一个句子),然后和L.fst 进行composition 形成训练用的音素级别(phone level)fst网络(类似于LG.fst)。fsts.JOB.gz 中使用 key-value 的方式保存每个句子和其对应的fst网络,通过 key(句子) 就能找到这个句子的fst网络,value中保存的是句子中每两个音素之间互联的边(Arc),例如句子转换成音素后,标注为:”a b c d e f”,那么value中保存的其实是 a->b b->c c->d d->e e->f 这些连接(kaldi会为每种连接赋予一个唯一的id),后面进行 HMM 训练的时候是根据这些连接的id进行计数,就可以得到转移概率。

line 89-94:

if [ $stage -le -1 ]; then
  echo "$0: Aligning data equally (pass 0)"
  $cmd JOB=1:$nj $dir/log/align.0.JOB.log \                                                      
    align-equal-compiled "ark:gunzip -c $dir/fsts.JOB.gz|" "$feats" ark,t:-  \| \
    gmm-acc-stats-ali --binary=true $dir/0.mdl "$feats" ark:- \
    $dir/0.JOB.acc || exit 1;
fi 

align-equal-compiled 在本步骤先对训练数据进行初始对齐,对齐即将每一帧观察量与标注对齐。初始时采用均匀对齐,即根据标注量和观察量来进行均匀对齐,比如有100帧序列,5个标注,那么就是每个标注20帧,虽然这种初始化的对齐方式误差会很大,但在接下来的训练步骤中会不断的重新对齐的。

gmm-acc-stats-ali 是对对齐后的数据进行训练,获得中间统计量,每个任务输出到一个.acc的文件中。acc文件中记录了与HMM和GMM相关的统计量:

  1. HMM相关的统计量:两个音素之间互联的边(Arc) 出现的次数。如上面所述,fst.JOB.gz 中每个key对于的value保存一个句子中音素两两之间互联的边。gmm-acc-stats-ali 会统计每条边(例如a->b)出现的次数,然后记录到acc文件中。

  2. GMM相关的统计量:每个pdf-id 对应的特征累计值和特征平方累计值。对于每一帧,都会有个对齐后的标注,gmm-acc-stats-ali 可以根据标注检索得到pdf-id,每个pdf-id 对应的GMM可能由多个单高斯Component组成,会先计算在每个单高斯Component对应的分布下这一帧特征的似然概率(log-likes),称为posterior。然后:

    • 把每个单高斯Component的posterior加到每个高斯Component的occupancy(占有率)计数器上,用于表征特征对于高斯的贡献度,如果特征一直落在某个高斯的分布区间内,那对应的这个值就比较大;相反,如果一直落在区间外,则表示该高斯作用不大。gmm-est中可以设置一个阈值,如果某个高斯的这个值低于阈值,则不更新其对应的高斯。另外这个值(向量)其实跟后面GMM更新时候的高斯权重weight的计算相关。
    • 把这一帧数据加上每个单高斯Component的posterior再加到每个高斯的均值累计值上;这个值(向量)跟后面GMM的均值更新相关。
    • 把这一帧数据的平方值加上posterior再加到每个单高斯Component的平方累计值上;这个值(向量)跟后面GMM的方差更新相关。
    • 最后将均值累计值和平方累计值写入到文件中。

line 99-103:

if [ $stage -le 0 ]; then
  gmm-est --min-gaussian-occupancy=3  --mix-up=$numgauss --power=$power \
    $dir/0.mdl "gmm-sum-accs - $dir/0.*.acc|" $dir/1.mdl 2> $dir/log/update.0.log || exit 1;
  rm $dir/0.*.acc
fi

gmm-est这里用上面得到的统计量来更新每个GMM模型,AccumDiagGmm中occupancy_的值决定混合高斯模型中每个单高斯Component的weight;min-gaussian-occupancy 的作用是设置occupancy_的阈值,如果某个单高斯Component的occupancy_低于这个阈值,那么就不会更新这个高斯。而且如果remove-low-count-gaussians=true,则对应得单高斯Component会被移除。

line 106-134:

beam=6 # will change to 10 below after 1st pass
# note: using slightly wider beams for WSJ vs. RM.
x=1          
while [ $x -lt $num_iters ]; do
  echo "$0: Pass $x"
  if [ $stage -le $x ]; then
    if echo $realign_iters | grep -w $x >/dev/null; then
      echo "$0: Aligning data"
      mdl="gmm-boost-silence --boost=$boost_silence `cat $lang/phones/optional_silence.csl` $dir/$x.mdl - |"
      $cmd JOB=1:$nj $dir/log/align.$x.JOB.log \
        gmm-align-compiled $scale_opts --beam=$beam --retry-beam=$[$beam*4] --careful=$careful   "$mdl" \
        "ark:gunzip -c $dir/fsts.JOB.gz|" "$feats" "ark,t:|gzip -c >$dir/ali.JOB.gz" \
        || exit 1;
    fi       
    $cmd JOB=1:$nj $dir/log/acc.$x.JOB.log \
      gmm-acc-stats-ali  $dir/$x.mdl "$feats" "ark:gunzip -c $dir/ali.JOB.gz|" \                 
      $dir/$x.JOB.acc || exit 1;

    $cmd $dir/log/update.$x.log \
      gmm-est --write-occs=$dir/$[$x+1].occs --mix-up=$numgauss --power=$power $dir/$x.mdl \
      "gmm-sum-accs - $dir/$x.*.acc|" $dir/$[$x+1].mdl || exit 1;
    rm $dir/$x.mdl $dir/$x.*.acc $dir/$x.occs 2>/dev/null
  fi         
  if [ $x -le $max_iter_inc ]; then
     numgauss=$[$numgauss+$incgauss];
  fi         
  beam=10    
  x=$[$x+1]  
done  

从代码可以看出,这里就是上面三步(对齐-计算统计量-更新参数)的训练版。大体含以上无明显改变。

其中需要注意的是对齐部分,这里采用的不再是均匀对齐而是gmm-align-compiled,强制对齐。选项用于计算对解码过程中出现较低log-likelihood的token进行裁剪的阈值,该值设计的越小,大部分token会被裁剪以便提高解码速度.-acoustic-scale 选项跟GMM输出概率相关,用于平衡 GMM 输出概率和 HMM 跳转概率的重要性。–beam 选项用于计算对解码过程中出现较低log-likelihood的token进行裁剪的阈值,该值设计的越小,大部分token会被裁剪以便提高解码速度,但可能会在开始阶段把正确的token裁剪掉导致无法得到正确的解码路径。-retry-beam 选项用于修正上述的问题,当无法得到正确的解码路径后,会增加beam的值,如果找到了最佳解码路径则退出,否则一直增加指定该选项设置的值,如果还没找到,就抛出警告,导致这种问题要么是标注本来就不对,或者retry-beam也设计得太小。

以上就是train_mono.sh的代码和讲解了。

解码测试 local/thchs-30_decode.sh

本部分即对应run.sh里面的第65行。其实local/thchs-30_decode.sh这个代码在run.sh里多次出现,都是负责根据得到的模型对语音进行解码得到汉字计算准确率/似然度等信息。打开程序发现其核心代码就两行,下面的decode phone和word的代码除了出入不一样外都一样,而phone对应的输入我们前面介绍过,因此:

#decode word 
utils/mkgraph.sh $opt data/graph/lang $srcdir $srcdir/graph_word  || exit 1;
$decoder --cmd "$decode_cmd" --nj $nj $srcdir/graph_word $datadir/test $srcdir/decode_test_word || exit 1

其中mkgraph.sh的作用是创建一个完全扩展的解码图(HCLG.FST),该解码图表示语言模型、发音字典、上下文相关性和HMM结构。其程序流程为:

  1. 由L_disambig.fst(lexicon,发音字典)和G.fst(语言模型)生成最新的$lang/tmp/LG.fst。

  2. 生成最新的$lang/tmp/CLG_1_0.fst 和 ilabels_1_0 和 disambig_ilabels_1_0.int,需要LG.fst和disambig.int。

  3. 生成最新的exp/mono/graph/Ha.fst,需要文件tree和model.

  4. 生成最新的exp/mono/graph/HCLGa.fst。

  5. 生成最新的exp/mono/graph/HCLG.fst,调用程序add-self-loops。

  6. 检查HCLG.fst是否为空。

  7. 将$lang下的一些文件复制到exp/mono/graph下。

第二行的$decoder是传入的参数,等价于steps/decode.sh,它的使用方式是steps/decode.sh [options] 。作用为通过调用gmm-latgen-faster或gmm-latgen-faster-parallel进行解码,生成lat.JOB.gz。其中gmm-latgen-faster-parallel为gmm-latgen-faster的并行版本,可以自己去程序里根据需求设置。而后若设置变量skip_scoring为false,则调用local/score.sh进行打分,thchs30的解码设置的是false。

单音素强制对齐 steps/align_si.sh

改程序的用法为:steps/align_si.sh 。其作用为使用src-dir中的模型对data-dir中的数据进行对齐,将结果放在align-dir中。简单来说就是用训练好的模型将数据进行强制对齐方便以后使用。这也是一般Kaldi训练都要包含单音素的原因之一。在run.sh中的调用代码为:

steps/align_si.sh --boost-silence 1.25 --nj $n --cmd "$train_cmd" data/mfcc/train data/lang exp/mono exp/mono_ali || exit 1;

它用到的文件为 data/train/text data/lang/oov.in exp/mono/tree exp/mono/final.mdl exp/mono/final.occs,输出是 exp/mono_ali/ali.JOB.gz,JOB对应于任务号(1,2…)。其流程为:

  1. 先调用compile-train-graphs对每句话生成FST。

  2. 再调用gmm-align-compiled对数据进行对齐,结果放在exp/mono_ali/ali.JOB.gz。

  3. 调用steps/diagnostic/analyze_alignments.sh对对齐结果进行分析(thchs30里没用到这个)。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值