Timit 脚本理解

数据准备 

local/timit_data_prep.sh



生成的内容放在data/local/data中。
对于train、test和dev,分别生成相应的_sph.flist、_sph.scp、.uttids、.trans、.text、_wav.scp、.utt2spk、.spk2utt、.spk2gender、.stm和.glm文件。
NOTE:
.wav files are not really .wav, they are .sph. Use tools/sph2pipe_v2.5/sph2pipe to convert.




一大堆检查

检查参数数目是否正确

检查sph2pipe程序是否可用
检查conf/test_spk.list和conf/dev_spk.list是否存在
检查train和test目录是否存在
检查目录名是大写的还是小写的(TRAIN或者train) 




创建临时文件

用trap命令设置收到EXIT信号时删除临时文件

转换大小写,将dev_spk.list和test_spk.list分别写到\$tmpdir/dev_spk和\$tmpdir/test_spk中,用ls和sed生成$tmpdir/train_spk,也就是训练集中的说话人名字列表

在目录data/local/data下,未注明路径的文件都是生成在该路径下





for x in train dev test; do

生成与x相关的.WAV路径列表,放在${x}_sph.flist中

根据\${x}_sph.flist中的人名和句子名,生成utt-id(人名_句子名),放在\$tmpdir/\${x}_sph.uttids中

将.uttids和_sph.flist中的同一行粘在一起,根据第一列的uttids进行排序后放在${x}_sph.scp中,每一行的格式为:utt-id 对应的.WAV路径

根据\${x}_sph.scp的第一列生成${x}.uttids

生成与x相关的.PHN路径列表,放在\$tmpdir/\${x}_phn.flist中(.PHN文件中存放的是音素抄本)

根据_phn.flist中的人名和句子名,生成utt-id(人名_句子名),放在\$tmpdir/\${x}_phn.uttids中

将存放在.PHN文件中的抄本转换为kaldi使用的格式保存在\$tmpdir/\${x}_phn.trans中(.PHN中,一个音素一行,将这些音素放在一行)

将.uttids和.trans中的同一行粘在一起,根据第一列的uttids进行排序后放在${x}.trans中,每一行的格式为:utt-id 对应的抄本

调用local/timit_norm_trans.pl对\${x}.trans进行normalization,将h#替换成sil,生成$x.text

创建${x}_wav.scp,每一行的格式为:utt-id extendedfilename

生成$x.utt2spk,调用utils/utt2spk_to_spk2utt.pl生成$x.spk2utt

生成性别映射$x.spk2gender

为sclite准备stm文件:调用程序wav-to-duration生成${x}_dur.ark,用awk生成stm文件

创建假glm文件


local/timit_prepare_dict.sh

生成的文件放在data/local/dict、data/local/lm_tmp和data/local/nist_lm中。




(1)准备字典


以下数据的默认路径是data/local/dict

将sil写到silence_phones.txt和optional_silence.txt中

根据train.text生成phones.txt

根据phones.txt生成lexicon.txt(将phones.txt的一列复制成两列)

根据silence_phones.txt和phones.txt生成nonsilence_phones.txt


根据silence_phones.txt和nonsilence_phones.txt生成extra_questions.txt





(2)创建音素bigram LM




给data/train.text的每一句抄本句首加<s>,句尾加</s>,放在data/lm_train.text中

调用irstlm/bin/build-lm.sh生成音素语言模型,即lm_tmp/lm_phone_bg.ilm.gz

调用irstlm/bin/compile-lm对上一步生成的LM进行处理,输出为nist_lm/lm_phone_bg.arpa.gz

utils/prepare_lang.sh

生成的文件放在data/lang和data/local/lang_tmp中,需要用到data/local/dict中的文件。
针对timit run.sh中的参数而言,部分if分支的解释略去。

tmpdir=data/local/lang_tmp

调用utils/validate_dict_dir.pl检验data/local/dict下的除phones.txt外的所有文件

如果没有dict/lexiconp.txt,根据dict/lexicon.txt生成之,其格式为:音素 1.0 音素。

经过几个if,将dict/lexiconp.txt复制到$tmpdir/lexiconp.txt

根据dict下的silence_phones.txt和nonsilence_phones.txt生成$tmpdir/phones,将此phones的一列复制成两列生成$tmpdir/phone_map.txt

调用utils/apply_map.pl生成lang/phones/sets.txt

根据sets.txt生成lang/phones/roots.txt,其中每一行的开头为shared split

根据dict中的silence_phones.txt、nonsilence_phones.txt、optional_silence.txt生成lang/phones下的silence.txt、nonsilence.txt、optional_silence.txt

根据lang/phones下的silence.txt生成lang/phones/context_indep.txt

根据dict中的extra_questions.txt生成lang/phones/extra_questions.txt

生成$tmpdir/lexiconp_disambig.txt

生成$tmpdir/lex_ndisambig

根据整数变量ndisambig(此处为1)的大小,生成phones/disambig.txt

生成音素符号表lang/phones.txt。将<eps>和phones/{silence,non_silence,disambig}.txt合在一起生成phones.txt,每一行的格式为:音素 编号。

生成phones/word_boundary.txt,本参数下不生成该文件

创建单词符号表lang/words.txt,根据$tmpdir/lexiconp.txt生成之,每一行的格式为:音素 编号。附加有<eps>、#0、<s>和</s>

将\$tmpdir/lexiconp.txt的第一列第三列提取出来生成$tmpdir/align_lexicon.txt;并将<eps> sil补加到\$tmpdir/align_lexicon.txt

根据\$tmpdir/align_lexicon.txt生成phones/align_lexicon.txt

根据align_lexicon.txt、phones.txt和words.txt生成phones/lexicon.int

调用utils/make_lexicon_fst.pl生成lang/L.fst

生成lang/oov.txt和lang/oov.int,int映射是根据words.txt生成的

将#0写到phones/wdisambig.txt中,根据phones.txt将wdisambig.txt映射为phones/wdisambig_phone.int,根据words.txt将wdisambig.txt映射为phones/wdisambig_words.int

根据phones.txt的映射,生成silence、nonsilence、optional_silence、disambig和context_indep的int和csl版本,生成sets和extra_question的int版本,生成roots的int版本

调用utils/gen_topo.pl,根据silence.csl和nonsilence.csl生成lang/topo

调用utils/make_lexicon_fst.pl生成lang/L_disambig.fst




验证lang整个目录下的文件



local/timit_format_data.sh

准备train、dev和test数据。创建data下创建train、dev和test目录,将data/local/data中的相应数据分别复制到data目录下相应的目录中

为测试准备语言模型。创建data/lang_test_bg目录,将data/lang下的所有文件复制到该目录。根据data/local/nist_lm下的音素二元语言模型lm_phone_bg.arpa.gz生成G.fst

验证lang_test_bg下文件,删除data/local/lm_tmp目录




特征提取



对data下的train、dev和test数据分别调用下面两个脚本


steps/make_mfcc.sh


特征存在feats.scp中,存储的特征是每一帧13维,当用到mfcc特征的时候才计算deltas和deltas-deltas,转为39维。
脚本主要为下面几行


  $cmd JOB=1:$nj $logdir/make_mfcc_${name}.JOB.log \
    compute-mfcc-feats  $vtln_opts --verbose=2 --config=$mfcc_config \
     scp,p:$logdir/wav_${name}.JOB.scp ark:- \| \
      copy-feats --compress=$compress ark:- \
      ark,scp:$mfccdir/raw_mfcc_$name.JOB.ark,$mfccdir/raw_mfcc_$name.JOB.scp \

      || exit 1;


其中\$cmd为run.pl
以data/train为例
检查。检查一些文件是否存在等
根据变量\$nj的大小,将data/train/wav.scp平分为\$nj份
调用run.pl,提取特征。一个JOB处理一份wav.scp,共\$nj个JOB。用到程序compute-mfcc-feats和copy-feats,生成mfcc/raw_mfcc_train.JOB.ark和对应的mfcc/raw_mfcc_train.JOB.scp文件,JOB为1到\$nj的数字。
将\$nj个mfcc/raw_mfcc_train.JOB.scp文件合成一个data/train/feats.scp文件
检查。检查是否正确提取所有文件
steps/compute_cmvn_stats.sh


对每个说话人计算cmvn(cepstral mean and variance normalization)。
对每个说话人,对每一维(共13维)分别计算count/sum/sum-squared三组statistics,分别为1维、13维、13维。count代表该说话人所有音频文件的总帧数,sum代表所有帧里每一维的和,sum-square代表所有帧里每一维的平方的和。然后根据这三组statistics,计算均值和方差。
可用copy-matrixs程序查看cmvn.scp或cmvn.ark文件,对每一个说话人,有一个28维的矩阵,前十三维是sum,然后是count,接着十三维是sum-squared,最后一个0。
该脚本有三个选项:--fake、--two-channel、--fake-dims
调用compute-cmvn-stats生成mfcc/cmvn_train.ark和mfcc/cmvn_train.scp,然后将后者复制到data/train/cmvn.scp
单因素训练和解码


steps/train_mono.sh


主要输出为:final.mdl和tree
创建sdatadata/train/split$nj(\$nj为作业数,此处为30),将data/train分为$nj份
57   调用程序apply-cmvn和add-deltas生成39维特征(原始的mfcc只有13维)
65-75   run.pl调用程序gmm-init-mono初始化单音素模型,在exp/mono/下生成0.mdl和tree
80-86   编译训练图(compiling traning graphs),调用程序compile-train-graphs,生成exp/mono/fsts.JOB.gz(共有\$nj个JOB);对每句话,编译FST;
88-94   等价对齐数据(Aligning data equally),调用程序align-equal-compiled(Write an equally spaced alignment (for getting training started))和gmm-acc-stats-ali(Accumulate stats for GMM training.),生成exp/mono/0.JOB.acc
99-103   调用gmm-est对0.mdl进行重新估计,该程序对基于GMM的声学模型进行最大似然重新估计。删除exp/mono/0.*.acc,生成exp/mono/1.mdl
109-134   开始迭代更新参数。用到程序gmm-align-compiled(Align features given [GMM-based] models. Viterbi alignment)、gmm-acc-stats-ali和gmm-est
变量$stage的妙用:设置这个变量值,可以从中断的地方重新开始训练,不至于从头开始。比如设置该值为10,则接着第10次迭代,直接开始第11次迭代,而不用从头开始。(个人想法)
对于每个程序的用法,可以直接在命令行输入程序名查看其使用信息。
utils/mkgraph.sh


该脚本创建一个完全扩展的解码图(HCLG),该解码图表示语言模型、发音字典、上下文相关性和HMM结构。输出是一个FST。
$lang=data/lang_test_bg
required="$lang/L.fst $lang/G.fst $lang/phones.txt $lang/words.txt $lang/phones/silence.csl $lang/phones/disambig.int $model $tree"
由L_disambig.fst(lexicon,发音字典)和G.fst(语言模型)生成最新的$lang/tmp/LG.fst
生成最新的$lang/tmp/CLG_1_0.fst 和 ilabels_1_0 和 disambig_ilabels_1_0.int,需要LG.fst和disambig.int
生成最新的exp/mono/graph/Ha.fst,需要文件$tree和$model
生成最新的exp/mono/graph/HCLGa.fst
生成最新的exp/mono/graph/HCLG.fst,调用程序add-self-loops
检查HCLG.fst是否为空
将$lang下的一些文件复制到exp/mono/graph下
steps/decode.sh


Usage: steps/decode.sh [options] <graph-dir> <data-dir> <decode-dir>
调用gmm-latgen-faster或gmm-latgen-faster-parallel进行解码,生成lat.JOB.gz
如果设置变量skip_scoring为false,则调用local/score.sh进行打分。
三音素:deltas + delta-deltas 训练和解码


steps/align_si.sh


usage: steps/align_si.sh <data-dir> <lang-dir> <src-dir> <align-dir>
作用:使用src-dir中的模型对data-dir中的数据进行对齐,将结果放在align-dir中
用到的文件:
data/train/text  data/lang/oov.in exp/mono/tree exp/mono/final.mdl exp/mono/final.occs
输出:
exp/mono_ali/ali.JOB.gz
先调用compile-train-graphs对每句话生成FST
再调用gmm-align-compiled对数据进行对齐,结果放在exp/mono_ali/ali.JOB.gz
调用steps/diagnostic/analyze_alignments.sh对对齐结果进行分析
steps/train_deltas.sh


Usage: steps/train_deltas.sh <num-leaves> <tot-gauss> <data-dir> <lang-dir> <alignment-dir> <exp-dir>
一段理论:
训练单音素系统(或者之前建立的三音素系统)是为了得到数据的时间对齐结果;对每一个在数据里看到的三音素,accumulate sufficent statistics to train a single Gaussian per HMM state.
stats是statistics的缩写,sufficient statistics for Gaussian are (count, sum, sum-squared),每个状态所拥有的个数分别为(1,39,39)。
“pdf-class” which is
normally synonymous with HMM-state.

decision tree leaves are integers, call these pdf-ids(zero-based, but transition-ids are one-based)


gmm-init-model把两个对象写到模型文件中(x.mdl):TransitionModel和AmDiagGmm。TransitionModel存储HMM transition probabilities,追踪HMM topologies(包含HmmTopology对象)。
traisiton-ids:对应转移概率的一个索引
流程:
accumulating tree statistics,用到程序acc-tree-stats和sum-tree-stats
避免使用手工制作的语音问题集,对音素进行聚类得到问题集;一个问题只是一个音素集;用到程序cluster-phones
compiling the questions
build-tree
初始化模型gmm-init-model
  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值