EM Algorithm

Expectation Maximization Algorithm

EM算法和之前学的都不太一样,EM算法更多的是一种思想,所以后面用几个例子讲解,同时也会重点讲解GMM高斯混合模型。

①极大似然估计

极大似然估计这里面用的比较多。假设我们想要知道我们学生身高的分布,首先先假设这些学生都是符合高斯分布N(¼, Ã^2)我们要做的就是要估计这两个参数到底是多少。学生这么多,挨个挨个来肯定是不切实际的,所以自然就是抽样了。
为了统计学生身高,我们抽样200个人组成样本X = {x_1,x_2,x_3,x_4,...x_{200}}
我们需要估计的参数¸ = [¼, Ã]^T首先估计一下抽到这两百人的概率一共是多少,抽到男生A的概率P(x_A|¸)抽到学生B的概率P(x_B|¸)所以同时抽到这两个学生的概率就是P(x_A|¸) * P(x_B|¸)那么同时抽到这200个学生的G概率L(¸) = L(x_1,x_2,x_3...,x_200;¸) = \prod_{i=1}^{200}P(x_i|¸)
最后再取一个对数就好了:H(¸) = \sum_{i=1}^{200}InP(x_i|¸)

notation和log

上面有一条公式里面是同时存在了;和|,这两个符号差别其实有点大的。|一般我们是用来表示条件概率,比如P(x|¸)就是表示x在θ的条件下发生的概率。P(A|B) = \frac{P(A,B)}{P(B)}也是一个意思。
分号;表示的就是表示后面的是待估计的参数,也就是说P(x;θ)意思就是后面的θ是需要估计的参数而不是条件,所以|也有另一层意思,如果不是表示条件概率,那么就是表示后面有待估计参数。
当然是在|不表示条件概率的情况下。

这两种表示法是源于两种学派的不同理解:
频率派认为参数为固定的值,是指真实世界中,参数值就是某个定值。
贝叶斯派认为参数是随机变量,是指取这个值是有一定概率的。当然,无论是;还是|,他们都是表示条件概率的意思,只不过这两个学派理解不一样而已。
notation的问题解决了之后就是log的问题了,为什么需要log化,讲道理,是不需要的。但是求log有这么几个好处:
1.计算简单,累乘是很难计算的,log之后可以变换成累加。
2.概率累乘是会出现数字非常小的情况,log之后就可以避免这种情况。
3.log之后函数的梯度方向是没有变化的,对于函数优化的方向影响很小。

似然函数的执行步骤:
1.得到似然函数
2.取对数整理
3.求导数,另导数为零
4.解方程得到解

②Jensen不等式

首先引出凸函数的概念f(x)^{''} > 0那么就是凸函数,所以它的图像就是一个勾形的,看起来是一个凹函数,实际上是凸函数。

img_5fe181769d0b57dfb1eb5384291fbb11.png

凸函数的性质很显而易见了
E[f(x)] >= f(E(x))

img_d5b6c317c4f11cf9b316831ee8ebf4b8.png

其实很明显的,看图就知道了,E(x)其实就是a到b的平均值,上面的结论很容易证实。那么如果想要取到等号,需要改变上面?取等号的意思就是相切,相切的意思就是a = b,既然a = b了,那么x自然就是常数了,所以当且仅当
P(x = E(x)) == 1
如果是凹函数,那么就是方向相反了。

③EM算法的推导

正常来看先是要引入一个最大似然函数:L(¸) = \sum_{i=1}^{n}logP(x;¸)但这样其实是和难求的,P(x|θ)完全混在了一起,根本求不出来,所以我们要引入一个辅助变量z。

隐变量Z

隐变量是观测不到的,比如做一个抽样,从3个袋子里面抽取小球。而抽取这些小球的过程是不可见的,抽取的过程其实就是隐变量,而这些隐变量,也就是过程可以告诉我们这个x是从哪个袋子来的,由此来区分。这个隐变量和HMM里面的隐含序列不是一个东西,隐含序列是当前x的状态,而不是抽取x的过程。所以在这里,通俗点讲,这个z就是用来找到x的组类的,也就是说z来告诉这个x你是属于哪一组的。
另外需要注意的是,隐变量是不可以随便添加的,添加隐变量之后不能影响边缘概率。也就是说,原来是P(x),添加之后就是P(x,z),那么必须有:P(x) = \int_zP(x, z){\rm dz}

所以我们引入隐变量的原因是为了转化成和这几个高斯模型相关的式子,否则无从下手。化简一下上式子:L(¸) = \sum_{i=1}^{n}logP(x;¸)=\sum_{i=1}^{n}log\sum_zP(x, z;¸)既然z可以指定x,那么我们只需要求解出z就好了。
注意上面凸函数所提到的一个期望性质,这里就可以使用了。因为虽然优化了上面的式子,还是不能求出来,因为z变量实在是太抽象了,找不到一个合适的公式来表示它。EM的一个方法就是用优化下界函数的方法来达到优化目标函数的目的。
既然z很抽象,那么我们就需要一个转变一下。对于每一个样例x都会对应一个z,那么假设一个分布Q(z)是满足了z的分布的,而Q(z)满足的条件是\sum_zQ_i(z) == 1,Q_i(z) > 0Qi意味着每一个x对应的z都会对应着一个Q了,这里有点复杂,再详细解释一下。一个x对应一组z,z是一个向量,但是每一个z又会分别对应一个一个分布Q。以为最后得到的z不会是一个数字,而是一个概率,也就是说Q(z)得到的是这个x样例属于这个类别的概率是多少。而z的数量,一个是当前有多少个分布混合在一起的数量。
再梳理一下:现在的样本是xi,那么每一个xi将会对应着一组的z,每一个xi同时也会对应着一个分布Qi,z其实就是反应了这个样本是来自于哪个分布的。比如这个x是A1分布做了3,A2分布做了5,那么z可能就是={3,5}。所以Qi(z)得到的是这个x属于这些个分布的概率,也就是说这些分布对x做了多少百分比的功,自然就是要等于1了。
还要注意的是,上面的\sum_zQ_i(z) = 1这个并不能得到Qi(z)就是分布对x做了多少功的结论,得到这个结论是后面下界函数与目标函数相等得到的。这里只是知道了总和等于1,因为是分布的总和嘛。
现在就到了公式的化简:\sum_ilogP(x^{(i)};¸) = \sum_ilog\sum_{z^{(i)}}P(x^{(i)},z^{i};¸) = \sum_ilog\sum_{z^{(i)}}Q_i(z^{(i)})\frac{P(x^{i},z^{i};¸)}{Q_i(z^{(i)})}
仔细看一下这个式子\sum_zQ_i(z^{(i)})\frac{P(x^{i},z^{i};¸)}{Q_i(z^{(i)})}这个式子其实就是求\frac{P(x^{i},z^{i};¸)}{Q_i(z^{(i)})}的期望,假设\frac{P(x^{i},z^{i};¸)}{Q_i(z^{(i)})} = x,那么可以利用上面E[f(x)] >= f(E(x))。于是化简:
\sum_ilog\sum_{z^{(i)}}Q_i(z^{(i)})\frac{P(x^{i},z^{i};¸)}{Q_i(z^{(i)})} >= \sum_i\sum_{z^{(i)}}Q_i(z^{(i)})log\frac{P(x^{i},z^{i};¸)}{Q_i(z^{(i)})}这个时候就得到了下界函数,上面也讲过了,想要相等,自然就是x要是常数,所以\frac{P(x^{i},z^{i};¸)}{Q_i(z^{(i)})} = c既然\sum_zQ_i(z) = 1,而且z也是一样的,因为一个样本嘛。所以上下加和(如果是离散的,那就sum一下,连续的那就积分,这里是离散的,所以就是sum一下)。于是有\frac{\sum_zP(x^i,z^i;¸)}{\sum_zQ_i(z^i)} = c
于是有:

img_e52bbbe093f9d0d7e5ab78489ce03ff1.png

所以Q(z)计算的是后验概率。计算在当前参数θ和已经抽样到x的条件下,这个x是从z来的概率。其实就是z对x做了多少贡献。
所以整个EM算法步骤就很清晰了:

EM算法计算步骤:

E-step:
对于每一个x_i,求Q_i^{(t)}(z) = P(z^i|x^i;¸^{(t)})
M-step:
¸ = argmax_¸\sum_i\sum_{z^{(i)}}Q_i(z^i)log\frac{P(x^i,z^i;¸)}{Q_i(z^i)}
这时候就可以使用求导迭代的方法求解了。

这就是整一个EM算法的框架了,可以看到其实没有比较具体的算法,大致上就是一个框架。那么问题来了,怎么样证明这东西是一个收敛的??

证明EM算法的收敛性

既然是极大似然估计,那么需要证明的自然就是L(¸^{t}) <= L(¸^{(t+1)}),也就是说极大似然估计要单调递增。因为每一次都是极大,那么随着时间增加,自然就是要增大的了。
当给定一个¸^{(t)}的时候,相当于t时间的EM算法进行了E步了,所以有:
L(¸^{t}) = \sum_i\sum_{z^{(i)}}Q_i^{t}(z^i)log\frac{P(x^i,z^i;¸^{t})}{Q_i(z^i)}然后就走M步,M步之前还没有求最大,所以:L(¸^{(t+1)}) >= \sum_i\sum_{z^i}Q_i^{(t)}(z^i)log\frac{P(x^i,z^i;¸^{(t+1)})}{Q_i(z^i)}这一步有点复杂,这里是M-step了,¸^{(t+1)}是L(θ)求极大值得到的,而最重要的是L和后面下界函数的关系。这两个东西是不相等的,下界函数等于目标函数的条件是x为constant,x == constant意味着Q得求出来,这里看这个Q貌似是出来了,但是这个Q是Q^t_i,是上一个时刻的,而不是这个时刻的,所以t+1时刻Q还没有被固定住,也就是没有满足x == constant的条件,所以下界函数小于等于目标函数。接下来就简单了,直接把¸^{(t+1)}换成¸^{(t)}就好了。

img_f510d56da76b038bdab42940d26ee5e1.png

这样就证明了收敛性。

EM algorithm的优化方法:

之前讨论过,这种方法是迭代,使用极大似然估计和迭代的方法来进行优化,但实际上这更像是一种坐标上升的方法:

img_1356484946f5c3591cfffe75ece06a6a.png

一次固定一个变量,对另外的求极值,最后逐步逼近极值。对应到EM上,E步:固定 θ,优化Q;M步:固定 Q,优化 θ;交替将极值推向极大。Kmeans也是这样更新的,固定中心点,优化Ein;优化完成,更新中心点。SMO也是,固定 ±_{3-n}更新α1和α2。

④GMM的推导

可以直接把高斯混合模型代入EM框架里面。
存在多个高斯分布混合生成了一堆数据X,取各个高斯分布的概率是Æ_1,Æ_2,Æ_3,...,第i个高斯分布的均值是¼_i,方差是Ã,求法φ,μ,σ。
按照套路,第一个E-step求出Q,于是有:w_j^{(i)} = Q_i(z^{(i)} = j) = P(z^{i} = j |x^i;Æ,¼,£)
意思就是求出第i个样本属于第j个分布的概率是多少。之后就是M-step了,就是化简了:
\sum_{i=1}^m\sum_{z^{(i)}}Q_i(z^{(i)})log\frac{p(x^i,z^i;Æ,¼,£)}{Q_i(z^{(i)})}=\sum_{i=1}^m\sum_{j=1}^kQ_i(z^i = j)log\frac{P(x^i|z^i = j;¼,£)P(z^i = j;Æ)}{Q_i(z^i = j)}
这里可能需要解释一下,根据P(A|B) = P(AB)P(B)至于条件,因为很明显,z是隐变量,只是指明了x是属于哪个类别,和μ,Σ没有什么关系,所以直接忽略那两个参数了,所以P(z)是没有那两个参数的,z是代表了分布,所以每一个分布的概率肯定是包括了,所以就只有一个概率的参数。P(x|z)是本身的概率,就是已经知道分布是那个了,求属于这个分布的概率是多少,既然已经选定了分布那么自然就不需要再看φ了,因为φ是各个分布的概率。

img_feb8c4efd29813402b5ef57c69b2a075.png

之后就是求导数了:
img_d636a0c57f91a5edf09d4bde8502707a.png

导数等于0,于是有:
¼_j = \frac{\sum_{i=1}^mw_j^{(i)}x^{(i)}}{\sum_{i=1}^{m}w_j^{(i)}}
μ就出来了。
对于φ,那就简单了,实际上需要优化的式子:
\sum_{i=1}^{m}\sum_{j=1}^{k}w_j^{i}logÆ_j
求导等于0。
要注意的是φ还有一个条件:
\sum_{j=1}^{k}Æ_j = 1
。有条件,那么问题来了,不能直接求导,所以只能用拉格朗日乘子法求解,于是构造式子:
L(Æ) = \sum_{i=1}^{m}\sum_{j=1}^{k}w_j^ilogÆ_j + ²(\sum_{j=1}^{k}Æ_j - 1)

接着求导
\sum_{i=1}^{m}\frac{w_j^{(i)}}{Æ_j}+² = 0
。于是得到
Æ_j = \frac{\sum_{i=1}^{m}w_j^{i}}{-²}
,再改变一下,两边加和,得到
\sum_{j=1}^{k}Æ_j = \frac{\sum_{i=1}^{m}\sum_{j=1}^{k}w_j^{(i)}}{-²}
,这个就简单了,
\sum_{j=1}^{k}w_j^i = 1
,所以-β = m。那么:
img_d577267f339fe7d4e710b6610ff85c7c.png

Σ也是一样:
img_dae1e645cfc658eccbf7a85775ab61dc.png

这样整个推导就算结束了。

⑤硬币模型

现在有两个硬币AB,进行5次试验每一次投10次,并不知道是哪个硬币投的,求两种硬币的正面的概率。
首先E-step:
首先先初始化一下,¸_A = 0.6,¸_B = 0.5
第一个试验选中A的概率:
P(z = A|x_1;¸) = \frac{P(z = A,x_1|¸)}{P(z = A,x_1|¸)+P(z = B,x_1|¸)} = \frac{(0.6)^5*(0.4)^5}{(0.6)^5*(0.4)^5 + (0.5)^{10}} = 0.45同样求得P(z = B|x_1;¸) = 0.55
计算机出每一个试验的概率然后相加求均值。
之后就是M-step了:

img_34a1b58935244f3efd0e774c9b5bb85b.png

¼_j
表示选择了A的概率,
1-¼_j
表示选择了B的概率。之后就是求导更新了。

⑥代码实现

方差的求解就不玩了,主要就是迭代求解μ和φ的值了。
首先是生成数据,4个高斯分布,每一个高斯分布的sigma都是一样的,不一样的只有μ和α,也就是φ,习惯上把前面的一个参数叫做权值,所以用α来表示。

def generate_data(sigma, N, mu1, mu2, mu3, mu4, alpha):
    global X
    X = np.zeros((N, 2))
    X = np.matrix(X)
    global mu
    mu = np.random.random((4, 2))
    mu = np.matrix(mu)
    global expect
    expect = np.zeros((N, 4))
    global alphas
    alphas = [0.25, 0.25, 0.25, 0.25]
    for i in range(N):
        if np.random.random(1) < 0.1:
            X[i, :] = np.random.multivariate_normal(mu1, sigma, 1)
        elif 0.1 <= np.random.random(1) < 0.3:
            X[i, :] = np.random.multivariate_normal(mu2, sigma, 1)
        elif 0.3 <= np.random.random(1) < 0.6:
            X[i, :] = np.random.multivariate_normal(mu3, sigma, 1)
        else:
            X[i, :] = np.random.multivariate_normal(mu4, sigma, 1)
    plt.title('Generator')
    plt.scatter(X[:, 0].tolist(), X[:, 1].tolist(), c = 'b')
    plt.xlabel('X')
    plt.ylabel('Y')
    plt.show()

这四个模型的比例分别是1:2:3:4,使用EM来找到他们属于的类别。


img_c5321a37409edf67c6bf9ec098d167f5.png

其实如果用kmeans聚类的话更加快速,但是这里还是用EM。
E-step:

def e_step(sigma, k, N):
    global X
    global mu
    global expect
    global alphas
    for i in range(N):
        W = 0
        for j in range(k):
            W += alphas[j] * math.exp(-(X[i, :] - mu[j, :]) * sigma.I * np.transpose(X[i, :] - mu[j, :])) / np.sqrt(np.linalg.det(sigma))
        for j in range(k):
            w = math.exp(-(X[i, :] - mu[j, :]) * sigma.I * np.transpose(X[i, :] - mu[j, :])) / np.sqrt(np.linalg.det(sigma))
            expect[i, j] = alphas[j]*w/W
            pass

就是按照公式来求解w即可,求解每一个分布对样本点做了多少的功,之后求单个样本点求比例。
M-step:

def m_step(k, N):
    global expect
    global X
    global alphas
    for j in range(k):
        mathor = 0
        son = 0
        for i in range(N):
            son += expect[i, j]*X[i, :]
            mathor += expect[i, j]
        mu[j, :] = son / mathor
        alphas[j] = mathor / N

直接按照公式优化即可。

if __name__ == '__main__':
    iterNum = 1000
    N = 500
    k = 4
    probility = np.zeros(N)
    mu1 = [5, 35]
    mu2 = [30, 40]
    mu3 = [20, 20]
    mu4 = [45, 15]
    sigma = np.matrix([[30, 0], [0, 30]])
    alpha = [0.1, 0.2, 0.3, 0.4]
    generate_data(sigma, N, mu1, mu2, mu3, mu4, alpha)
    for i in range(iterNum):
        print('iterNum : ', i)
        err = 0
        err_alpha = 0
        Old_mu = copy.deepcopy(mu)
        Old_alpha = copy.deepcopy(alphas)
        e_step(sigma, k, N)
        m_step(k, N)
        for z in range(k):
            err += (abs(Old_mu[z, 0] - mu[z, 0]) + abs(Old_mu[z, 1] - mu[z, 1]))
            err_alpha += abs(Old_alpha[z] - alphas[z])
        if (err <= 0.001) and (err_alpha < 0.001):
            print(err, err_alpha)
            break
    color = ['blue', 'red', 'yellow', 'green']
    markers  = ['<', 'x', 'o', '>']
    order = np.zeros(N)
    for i in range(N):
        for j in range(k):
            if expect[i, j] == max(expect[i, ]):
                order[i] = j
        plt.scatter(X[i, 0], X[i, 1], c = color[int(order[i])], alpha=0.5, marker=markers[int(order[i])])
    plt.show()
    print('standedμ:',mu4, mu3, mu2, mu1)
    print('standedα:',alpha)
    print('new μ:', mu)
    print('new α:',alphas)

运行函数。看看结果:


img_ed2da33ed05646b3bb8d56166ffee3ff.png

img_53fd89308071c1036883b3d84dd41604.png

结果其实还是相差不大。达到预期。

⑦EM的另一种理解方法

上面所讲的其实只是一种理解方法,在李航老师的统计学习方法里面是另一种比较厉害的解法:
1.E-step:求出Q函数。
2.M-step:利用Q函数求极大值。

其实这两种方法是完全一样的,Q函数就是下界函数,

img_fba0103575db877461a2c4504b1763b7.png
这个公式和上面的:
img_342d5d7ae9dba68aa8b6b9b437741a3c.png
是一样的,至于为什么有下面这个Q_i(z^i)
img_7434b3a5befdc8f8a014a8b6f89f31b5.png
这是李航老师书上的,既然θ是已经知道了,那么自然就可以去掉,因为在log下面做分母就相当于是常数了,拆开可以变减号嘛,在前面的就不可以。回来看看我们刚刚推导的,其实是一样的,下面的那个Q确实可以去掉,因为是事先知道的了。在使用Jensen不等式的时候,需要假设隐变量服从某种形式的概率分布,才可以将推导过程的一部分看成是期望的表达形式从而应用Jensen不等式。然而这个分布不是随便指定的。我们令Jensen不等式取等号的时候,可以计算出这个分布其实就是:已知观测数据的隐变量的后验概率分布。由于求Q函数需要先求出隐变量的后验概率的期望,因此,这就可以解释为什么EM算法的“通俗”理解角度的E步骤是求隐变量的期望了。有时候在用EM算法解决某个具体问题的时候,会发现M步骤极大化的居然是完全数据的对数似然函数。这是因为,Q函数虽然是完全数据的对数似然函数的某种期望,但是求这个期望的过程有时其实就是将隐变量的后验概率的期望代入就可以了。因此,本质上我们其实还是在求Q函数的极大。
事实上,李航老师的Estep求出Q函数,其实就是通俗理解里面的求出Q(z)并代入下界函数的过程。因为求出Q(z)就相当于这个Q(z)被固定了,可以去掉了,于是就和李航老师的式子一样了。有机会再补一些李航老师的推导,勃大精深。

⑧总结

EM和Kmeans算法其实很类似,事实上步骤基本可以用EM框架来替换,但是Kmeans算法是硬分类,说一不二,但是EM算法不太一样,是软分类,百分之几是那个,百分之几是这个。

缺点也还是有的:初值敏感,局部最优。因为存在了隐变量,所以导致了直接对x做极大似然是不可行的,log已经在sum的外面了。所以EM算法就转向了下界函数,而这种方法本来就不保证找到局部最优解。

如果将样本看作观察值,潜在类别看作是隐藏变量,那么聚类问题也就是参数估计问题。如果一个目标函数存在多个变量,那么梯度下降牛顿法这些逼近方法就用不了了。但我们可以使用坐标上升方法,固定一个变量,对另外一个求导数,然后替换最后逐步逼近极值点。对应到EM算法也是一样,E步求隐含的z变量,Mstep求解其他参数。

最后符上GitHub代码:

https://github.com/GreenArrow2017/MachineLearning/tree/master/MachineLearning/ExpectationMaximization

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
刚找到的书,第二版的.. 【原书作者】: Geoffrey J. McLachlan, Thriyambakam Krishnan 【ISBN 】: ISBN-10: 0471201707 / ISBN-13: 978-0471201700 【页数 】:360 【开本 】 : 【出版社】 :Wiley-Interscience 【出版日期】:March 14, 2008 【文件格式】:DJVU(请去网上下载windjview阅读 【摘要或目录】: Review "...should be comprehensible to graduates with statistics as their major subject." (Quarterly of Applied Mathematics, Vol. LIX, No. 3, September 2001) --This text refers to the Hardcover edition. Book Description The EM Algorithm and Extensions remains the only single source to offer a complete and unified treatment of the theory, methodology, and applications of the EM algorithm. The highly applied area of statistics here outlined involves applications in regression, medical imaging, finite mixture analysis, robust statistical modeling, survival analysis, and repeated-measures designs, among other areas. The text includes newly added and updated results on convergence, and new discussion of categorical data, numerical differentiation, and variants of the EM algorithm. It also explores the relationship between the EM algorithm and the Gibbs sampler and Markov Chain Monte Carlo methods. About Authors Geoffrey J. McLachlan, PhD, DSc, is Professor of Statistics in the Department of Mathematics at The University of Queensland, Australia. A Fellow of the American Statistical Association and the Australian Mathematical Society, he has published extensively on his research interests, which include cluster and discriminant analyses, image analysis, machine learning, neural networks, and pattern recognition. Dr. McLachlan is the author or coauthor of Analyzing Microarray Gene Expression Data, Finite Mixture Models, and Discriminant Analysis and Statistical Pattern Recognition, all published by Wiley. Thriyambakam Krishnan, PhD, is Chief Statistical Architect, SYSTAT Software at Cranes Software International Limited in Bangalore, India. Dr. Krishnan has over forty-five years of research, teaching, consulting, and software development experience at the Indian Statistical Institute (ISI). His research interests include biostatistics, image analysis, pattern recognition, psychometry, and the EM algorithm. 目录 Preface to the Second Edition. Preface to the First Edition. List of Examples. 1. General Introduction. 1.1 Introduction. 1.2 Maximum Likelihood Estimation. 1.3 Newton-Type Methods. 1.4 Introductory Examples. 1.5 Formulation of the EM Algorithm. 1.6 EM Algorithm for MAP and MPL Estimation. 1.7 Brief Summary of the Properties of EM Algorithm. 1.8 History of the EM Algorithm. 1.9 Overview of the Book. 1.10 Notations. 2. Examples of the EM Algorithm. 2.1 Introduction. 2.2 Multivariate Data with Missing Values. 2.3 Least Square with the Missing Data. 2.4 Example 2.4: Multinomial with Complex Cell Structure. 2.5 Example 2.5: Analysis of PET and SPECT Data. 2.6 Example 2.6: Multivariate t-Distribution (Known D.F.). 2.7 Finite Normal Mixtures. 2.8 Example 2.9: Grouped and Truncated Data. 2.9 Example 2.10: A Hidden Markov AR(1) Model. 3. Basic Theory of the EM Algorithm. 3.1 Introduction. 3.2 Monotonicity of a Generalized EM Algorithm. 3.3 Monotonicity of a Generalized EM Algorithm. 3.4 Convergence of an EM Sequence to a Stationary Value. 3.5 Convergence of an EM Sequence of Iterates. 3.6 Examples of Nontypical Behavior of an EM (GEM) Sequence. 3.7 Score Statistic. 3.8 Missing Information. 3.9 Rate of Convergence of the EM Algorithm. 4. Standard Errors and Speeding up Convergence. 4.1 Introduction. 4.2 Observed Information Matrix. 4.3 Approximations to Observed Information Matrix: i.i.d. Case. 4.4 Observed Information Matrix for Grouped Data. 4.5 Supplemented EM Algorithm. 4.6 Bookstrap Approach to Standard Error Approximation. 4.7 Baker’s, Louis’, and Oakes’ Methods for Standard Error Computation. 4.8 Acceleration of the EM Algorithm via Aitken’s Method. 4.9 An Aitken Acceleration-Based Stopping Criterion. 4.10 conjugate Gradient Acceleration of EM Algorithm. 4.11 Hybrid Methods for Finding the MLE. 4.12 A GEM Algorithm Based on One Newton-Raphson Algorithm. 4.13 EM gradient Algorithm. 4.14 A Quasi-Newton Acceleration of the EM Algorithm. 4.15 Ikeda Acceleration. 5. Extension of the EM Algorithm. 5.1 Introduction. 5.2 ECM Algorithm. 5.3 Multicycle ECM Algorithm. 5.4 Example 5.2: Normal Mixtures with Equal Correlations. 5.5 Example 5.3: Mixture Models for Survival Data. 5.6 Example 5.4: Contingency Tables with Incomplete Data. 5.7 ECME Algorithm. 5.8 Example 5.5: MLE of t-Distribution with the Unknown D.F. 5.9 Example 5.6: Variance Components. 5.10 Linear Mixed Models. 5.11 Example 5.8: Factor Analysis. 5.12 Efficient Data Augmentation. 5.13 Alternating ECM Algorithm. 5.14 Example 5.9: Mixtures of Factor Analyzers. 5.15 Parameter-Expanded EM (PX-EM) Algorithm. 5.16 EMS Algorithm. 5.17 One-Step-Late Algorithm. 5.18 Variance Estimation for Penalized EM and OSL Algorithms. 5.19 Incremental EM. 5.20 Linear Inverse problems. 6. Monte Carlo Versions of the EM Algorithm. 6.1 Introduction. 6.2 Monte Carlo Techniques. 6.3 Monte Carlo EM. 6.4 Data Augmentation. 6.5 Bayesian EM. 6.6 I.I.D. Monte Carlo Algorithm. 6.7 Markov Chain Monte Carlo Algorithms. 6.8 Gibbs Sampling. 6.9 Examples of MCMC Algorithms. 6.10 Relationship of EM to Gibbs Sampling. 6.11 Data Augmentation and Gibbs Sampling. 6.12 Empirical Bayes and EM. 6.13 Multiple Imputation. 6.14 Missing-Data Mechanism, Ignorability, and EM Algorithm. 7. Some Generalization of the EM Algorithm. 7.1 Introduction. 7.2 Estimating Equations and Estimating Functions. 7.3 Quasi-Score and the Projection-Solution Algorithm. 7.4 Expectation-Solution (ES) Algorithm. 7.5 Other Generalization. 7.6 Variational Bayesian EM Algorithm. 7.7 MM Algorithm. 7.8 Lower Bound Maximization. 7.9 Interval EM Algorithm. 7.10 Competing Methods and Some Comparisons with EM. 7.11 The Delta Algorithm. 7.12 Image Space Reconstruction Algorithm. 8. Further Applications of the EM Algorithm. 8.1 Introduction. 8.2 Hidden Markov Models. 8.3 AIDS Epidemiology. 8.4 Neural Networks. 8.5 Data Mining. 8.6 Bioinformatics. References. Author Index. Subject Index

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值