Tree-Based State Tying for High Accuracy Modelling 公式理解

这篇博客主要是对其公式的理解
和同学讨论后发现自己理解有问题,原因就是这里的那个occupation counts( γ )是个概率,而且这个概率还是之前HMM中估计参数的时候用的那个

以下内容有误还未修改,不建议看继续看

前情提要
该论文主要是语音识别用决策树对三音素的HMM状态进行聚类。
其实就是决策树的一种分裂时选择问题的方式。我们一般用信息增益,信息增益比,基尼指数,方差,但这里用的是对观测特征的似然。
先给出论文中的公式

L(S)=fFsSlog(Pr(of;μ(S),(S)))γs(of)(1)

[嗯,然后论文中竟然还少了一个括号,再加上写的这么复杂,刚开始我都不知道那个少的括号补在哪里]

L(S)=12(log[(2π)n|(S)|]+n)sSfFγs(oF)(2)

自己理解下的推导
用似然作为标准其实就是希望对于训练数据的所有观测帧集合O似然增大,即

argmaxSy,snL(F|Sy)+L(F|Sn)L(S)
其中 Sy,Sn 组成集合S,S和论文的含义一样是聚在树种某个node中的三音素状态集合

论文中所求的L(S)其实是L(F|S),其最直观的表示如下

L(F|S)=fFinSlogP(of|θ)=fFinSlogP(of|N(μ(S),(S)))

其中 FinS 表示在F中出现在S中的 of 组成的集合

论文中貌似为了想统一用F表示,于是写成了如下

L(F|S)=fFlogP(of|N(μ,))sSp(s|of)

这个式子就和论文中的公式(1)是一致的。

A=Ssp(s|of) ,其实若f在S中A=1否则A=0。也可以把 of 理解为唯一的数据,因此p(s|o_f)就是个0,1二值数。
上式中 p(s|of) 就是论文所说的那个后验 γs(of) ,而
|FinS|=fFsSp(s|oF)

至此完成了一个第一个阶段


将n元高斯公式
P(x|N(μ,))=1(2π)d2||12exp(12(xμ)T1(xμ))

带入就可得到论文中的公式(2),或者是我写的形式

L(F|S)=12|FinS|(log[(2π)n(S)|]+n)

最难理解的当属那个n了,其实要记住 μ, 都是由集合 FinS 中的数据训练得到的,于是

n|FinS|=FinSf(ofμ)T1(ofμ)


不知为什么CSDN打出的公式带有竖线。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值