Expectation Maximization(EM算法)证明过程

Expectation Maximization

  1. 单个高斯分布假设

    已知观测到的数据 x={x1,x2...,xn} . 若对该数据进行单个高斯分布 θ(μ,σ2) 的假设,则可有以下log likelyhood :

    L(θ|x¯)=log(P(x¯|θ))=i=1nlog(P(xi|θ))

    P(xi|θ)=12πσe(xiμ)22σ2

    找到最可能的高斯分布参数,即 P(x¯|θ) 最大. 可以对 L(θ|x¯) 求导, 令其为0,解得 θ

  2. 对于混合高斯分布, L(θ|x¯) 较为复杂,故需要引入EM算法来进行求解

  3. EM 算法, 原理为:迭代优化参数,使得 P(x|θ) 最大. 迭代方程如下: 可以证明通过如下方法可保证 P(x|θ(g+1))P(x|θ(g)) .

    θ(g+1)=argmaxθzlog(P(x,z|θ))P(z|x,θ(g))dz
    , 其中z为隐变量

    证明如下:

    贝叶斯公式:

    P(x|θ)=P(x,z|θ)P(z|x,θ)

    两边取对数:

    log(P(x|θ))=log(P(x,z|θ))log(P(z|x,θ))

    以隐变量z为分布求期望:

    E(log(P(x|θ)))=E(log(P(x,z|θ)))E(log(P(z|x,θ)))

    zlog(P(x|θ))P(z|x,θ(g))dz=zlog(P(x,z|θ))P(z|x,θ(g))dzzlog(P(z|x,θ))P(z|x,θ(g))dz

    Log likelyhood就出来了:

    log(P(x|θ))=zlog(P(x,z|θ))P(z|x,θ(g))dzzlog(P(z|x,θ))P(z|x,θ(g))dz

    θ θ(g+1) 时,

    zlog(P(x,z|θ))P(z|x,θ(g))dz
    取到最大值。

    H(θ,θ(g))=zlog(P(z|x,θ))P(z|x,θ(g))dz

    如果我们证明了 H(θ(g+1),θ(g))H(θ(g),θ(g)) P(x|θ(g+1))P(x|θ(g)) 也就证明了.

    H(θ(g),θ(g))H(θ(g+1),θ(g))

    =zlog(P(z|x,θ(g)))P(z|x,θ(g))dzzlog(P(z|x,θ(g+1)))P(z|x,θ(g))dz

    =zlog(P(z|x,θ(g))P(z|x,θ(g+1)))P(z|x,θ(g))dz=zlog(P(z|x,θ(g+1))P(z|x,θ(g)))P(z|x,θ(g))dz

    为了证明这一点,需要用到Convax函数的知识即Jensen不等式:

    Convax Function

    (1p)f(x)+pf(y)f[(1p)x+py]

    所以有

    zlog(P(z|x,θ(g+1))P(z|x,θ(g)))P(z|x,θ(g))dzlog(zP(z|x,θ(g+1))P(z|x,θ(g))P(z|x,θ(g))dz)=0

    故EM算法是合理的,注意:隐变量z的选取不能破坏 xi 的边缘分布

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值