混合高斯模型
1. 单一的高斯模型(Gaussian single model, GSM)
一维形式下的正态分布函数如下所示
f
(
x
)
=
1
2
π
σ
e
−
(
x
−
μ
)
2
2
σ
2
f(x)=\frac{1}{\sqrt{2\pi}\sigma}e^{-\frac{(x-\mu)^{2}}{2\sigma^{2}}}
f(x)=2πσ1e−2σ2(x−μ)2
μ
\mu
μ以及
σ
2
\sigma^{2}
σ2是数据分布的均值和方差。对于多维形式
X
=
(
x
1
,
x
2
,
…
,
x
D
)
X=(x_{1},x_{2},\dots,x_{D})
X=(x1,x2,…,xD)的正态分布函数如下所示
f
(
X
)
=
1
(
2
π
)
D
∣
Σ
∣
e
−
1
2
(
X
−
μ
)
T
Σ
−
1
(
X
−
μ
)
f(\textbf{X})=\frac{1}{\sqrt{(2\pi)^{D}|\Sigma|}}e^{-\dfrac{1}{2}(\textbf{X}-\mu)^{T}\Sigma^{-1}(\textbf{X}-\mu)}
f(X)=(2π)D∣Σ∣1e−21(X−μ)TΣ−1(X−μ)
它的一些形式可以在文章深度学习中的一些概率函数分布以及文章数据挖掘中使用到的抽样分布函数找到。
单一的高斯模型有这样的一些缺点,当它模拟具有单一中心点的数据的时候,拟合效果比较好;但是对于多数据中心点的时候,拟合效果就不会有太好的效果。所以这就引出了混合高斯模型。
2. 混合高斯模型(GMM模型)
通过求解多个高斯模型,并通过一定的权重将几个高斯模型融合成一个模型,即最终的混合高斯模型。这个混合高斯模型可以产生这样的统计的样本。假设混合高斯模型是由
N
N
N个高斯模型所组成,那么由全概率公式可以得到
P
(
y
∣
θ
)
=
∑
k
=
1
N
P
(
θ
k
)
P
(
y
∣
θ
k
)
=
∑
k
=
1
N
π
k
N
(
y
∣
θ
k
)
P(y|\theta)=\sum\limits_{k=1}^{N}P(\theta_{k})P(y|\theta_{k})=\sum\limits_{k=1}^{N}\pi_{k}N(y|\theta_{k})
P(y∣θ)=k=1∑NP(θk)P(y∣θk)=k=1∑NπkN(y∣θk)
其中
π
k
≥
0
,
∑
k
=
1
N
π
k
=
1
\pi_{k}\geq{0},\sum\limits_{k=1}^{N}\pi_{k}=1
πk≥0,k=1∑Nπk=1,
N
(
y
∣
θ
k
)
N(y|\theta_{k})
N(y∣θk)高斯分布密度函数,
θ
k
=
(
μ
k
,
σ
k
2
)
\theta_{k}=(\mu_{k},\sigma_{k}^{2})
θk=(μk,σk2)。以下的分布称为第
k
k
k个高斯分布模型:
N
(
y
∣
θ
k
)
=
1
2
π
σ
k
e
−
(
x
−
μ
k
)
2
2
σ
k
2
N(y|\theta_{k})=\dfrac{1}{\sqrt{2\pi}\sigma_{k}}e^{-\frac{(x-\mu_{k})^{2}}{2\sigma_{k}^{2}}}
N(y∣θk)=2πσk1e−2σk2(x−μk)2
2.1 混合高斯模型直观上的理解和描述
笔者在下图中举例了几种单高斯模型和混合高斯模型的结果。
由图可以得到,对于混合高斯模型
P
(
y
,
θ
)
=
∑
k
=
1
N
π
k
N
(
y
∣
θ
k
)
,
θ
k
=
(
μ
k
,
σ
k
2
)
P(y,\theta)=\sum\limits_{k=1}^{N}\pi_{k}N(y|\theta_{k}),\theta_{k}=(\mu_{k},\sigma_{k}^{2})
P(y,θ)=k=1∑NπkN(y∣θk),θk=(μk,σk2)中出现的峰值对应的横坐标即为
μ
k
\mu_{k}
μk。所以说,它在另一方面有更复杂更多变的概率密度函数曲线,混合高斯模型的概率密度函数曲线可以是任意形状的非线性函数。
接下来我们来看另一种二维图形平面上的混合高斯分布图。
这里选择了四个中心点的坐标
(
6
,
3
)
,
(
−
2
,
5
)
,
(
−
7
,
−
6
)
,
(
7
,
−
6
)
(6,3),(-2,5),(-7,-6),(7,-6)
(6,3),(−2,5),(−7,−6),(7,−6),然后将其赋值不同的权重值,形成如图所示的等高线图。
由上述两个图片可以看出,多个混合高斯分布函数已经将函数描述非常复杂,通过调整混合高斯分布的系数
(
π
,
μ
,
Σ
)
(\pi,\mu,\Sigma)
(π,μ,Σ),可以使得图中的概率密度曲面去拟合任意的三维曲面,从而采样生成所需要的数据样本。
2.2 极大似然估计(Maximum Likehood Estimate, MLE)
极大似然估计方法(Maximum Likelihood Estimate,MLE)也称为最大概似估计或最大似然估计。求极大似然估计值的一般步骤如下所示
(1) 写出似然函数;
(2)对数似然函数取对数,并整理;
(3)求导数;
(4)解似然方程。
2.3 EM算法求解混合高斯模型
3. 应用(使用python和MATLAB实现混合高斯模型)
小结
参考文献
[1] https://blog.csdn.net/weixin_38206214/article/details/81064625
[2] https://blog.csdn.net/lin_limin/article/details/81048411
[3] 统计学习方法,李航