多元高斯分布全解析

大纲

  • 公式推导
  • 参数估计
  • 高斯分布运算
  • 高斯分布性质
  • 高斯过程(Gaussian process)
  • 高斯混合模型
概念区分
  • 边缘分布(marginal distribution)和联合分布
  • 概率密度函数和概率分布函数

1. 多元高斯分布公式推导

首先我们知道一元高斯分布是: N ( x ∣ u , σ 2 ) = 1 2 π σ 2 e x p [ − 1 2 σ 2 ( x − u ) 2 ] N(x|u,\sigma^2)=\frac{1}{\sqrt{2\pi \sigma^2}}exp[-\frac{1}{2\sigma^2}(x-u)^2] N(xu,σ2)=2πσ2 1exp[2σ21(xu)2], 拓展到高维时:
N ( x ‾ ∣ u ‾ , Σ ) = 1 ( 2 π ) D / 2 1 ∣ Σ ∣ 1 / 2 e x p [ − 1 2 ( x ‾ − u ‾ ) T Σ − 1 ( x ‾ − u ‾ ) ] N(\overline x | \overline u, \Sigma)=\frac{1}{(2\pi)^{D/2}}\frac{1}{|\Sigma|^{1/2}}exp[-\frac{1}{2}(\overline x-\overline u)^T\Sigma^{-1}(\overline x-\overline u)] N(xu,Σ)=(2π)D/21∣Σ1/21exp[21(xu)TΣ1(xu)]其中, x ‾ \overline x x 表示维度为 D 的向量, u ‾ \overline u u 则是这些向量的平均值, Σ \Sigma Σ 表示所有向量 x ‾ \overline x x 的协方差矩阵。

现在进行推导。为了简单起见,假设所有变量都是相互独立的,即对于概率分布函数 f ( x 0 , x 1 , … , x n ) = f ( x 0 ) f ( x 1 ) . . . f ( x n ) f(x_0,x_1,…,x_n)=f(x_0)f(x_1)...f(x_n) f(x0,x1,,xn)=f(x0)f(x1)...f(xn) 成立。

假设有很多变量 x ‾ = [ x 1 x 2 ] \overline x=\begin{bmatrix} x_1 \\ x_2 \end{bmatrix} x=[x1x2],它们的均值为 u ‾ = [ u 1 u 2 ] \overline u=\begin{bmatrix} u_1 \\ u_2 \end{bmatrix} u=[u1u2],方差为 σ ‾ = [ σ 1 σ 2 ] \overline \sigma=\begin{bmatrix} \sigma_1 \\ \sigma_2 \end{bmatrix} σ=[σ1σ2]

由于 x 1 x_1 x1 x 2 x_2 x2 是相互独立的,所以, x ‾ \overline x x 的高斯分布函数可以表示为:
f ( x ‾ ) = f ( x 1 , x 2 ) = f ( x 1 ) f ( x 2 ) = 1 2 π σ 1 2 e x p ( − 1 2 ( x 1 − u 1 σ 1 ) 2 ) × 1 2 π σ 2 2 e x p ( − 1 2 ( x 2 − u 2 σ 2 ) 2 ) = 1 ( 2 π ) 2 / 2 ( σ 1 2 σ 2 2 ) 1 / 2 e x p ( − 1 2 [ ( x 1 − u 1 σ 1 ) 2 + ( x 2 − u 2 σ 2 ) 2 ] ) \begin{aligned} f(\overline x) &= f(x_1,x_2) \\ &= f(x_1)f(x_2) \\ &= \frac{1}{\sqrt{2\pi \sigma_1^2}}exp(-\frac{1}{2}(\frac{x_1-u_1}{\sigma_1})^2) \times \frac{1}{\sqrt{2\pi \sigma_2^2}}exp(-\frac{1}{2}(\frac{x_2-u_2}{\sigma_2})^2) \\ &=\frac{1}{(2\pi)^{2/2}(\sigma_1^2 \sigma_2^2)^{1/2}}exp(-\frac{1}{2}[(\frac{x_1-u_1}{\sigma_1})^2+(\frac{x_2-u_2}{\sigma_2})^2]) \end{aligned} f(x)=f(x1,x2)=f(x1)f(x2)=2πσ12 1exp(21(σ1x1u1)2)×2πσ22 1exp(21(σ2x2u2)2)=(2π)2/2(σ12σ22)1/21exp(21[(σ1x1u1)2+(σ2x2u2)2])接下来,为了推出文章开篇的高维公式,我们要想办法得到协方差矩阵 Σ \Sigma Σ
对于二维的向量 x ‾ \overline x x 而言,其协方差矩阵为:
Σ = [ σ 11 σ 12 σ 12 σ 22 ] = [ σ 1 2 σ 12 σ 21 σ 2 2 ] \begin{aligned} \Sigma&=&\begin{bmatrix} \sigma_{11} & \sigma_{12} \\ \sigma_{12} & \sigma_{22} \end{bmatrix} \\ &=&\begin{bmatrix} \sigma_1^2 & \sigma_{12} \\ \sigma_{21} & \sigma_{2}^2 \end{bmatrix} \\ \end{aligned} Σ==[σ11σ12σ12σ22][σ12σ21σ12σ22]

协方差(Covariance)在概率论和统计学中用于衡量两个变量的总体误差。而方差是协方差的一种特殊情况,即当两个变量是相同的情况。简单来讲,协方差就是衡量两个变量相关性的变量。当协方差为正时,两个变量呈正相关关系(同增同减);当协方差为负时,两个变量呈负相关关系(一增一减)。 而协方差矩阵,只是将所有变量的协方差关系用矩阵的形式表现出来而已。通过矩阵这一工具,可以更方便地进行数学运算。协方差公式为:
C o v ( X , Y ) = E ( X , Y ) − E ( X ) E ( Y ) = ∑ i = 1 n ( x i − x ‾ ) ( y i − y ‾ ) n − 1 Cov(X,Y)=E(X,Y)-E(X)E(Y)=\frac{\sum_{i=1}^n{(x_i-\overline x)(y_i-\overline y)}}{n-1} Cov(X,Y)=E(X,Y)E(X)E(Y)=n1i=1n(xix)(yiy) 这里的 X X X Y Y Y表示两个变量空间。用机器学习的话讲,就是样本有 x x x y y y 两种特征,而 X X X 就是包含所有样本的 x x x 特征的集合, Y Y Y就是包含所有样本的 y y y 特征的集合。 x ‾ \overline x x y ‾ \overline y y X X X Y Y Y 两个特征空间的平均值。
那么假如 Z Z Z 是包含 X X X Y Y Y的矩阵,那么计算协方差矩阵时, C o v ( Z ) = E [ ( X − E [ X ] ) ( Y − E [ Y ] ) ⊤ ] = [ C o v ( X , X ) C o v ( X , Y ) C o v ( Y , X ) C o v ( Y , Y ) ] Cov(Z)=\mathrm{E}\left[ (X - \mathrm{E}[X]) (Y - \mathrm{E}[Y])^\top\right]=\begin{bmatrix} Cov(X,X) & Cov(X,Y) \\ Cov(Y,X) & Cov(Y,Y) \end{bmatrix} Cov(Z)=E[(XE[X])(YE[Y])]=[Cov(X,X)Cov(Y,X)Cov(X,Y)Cov(Y,Y)]
这样矩阵中之中每个元素 Σ i j = ( 样本矩阵第 i 列 − 第 i 列均值 ) T ( 样本矩阵第 j 列 − 第 j 列均值 ) 样本数 − 1 \Sigma_{ij}=\frac{(样本矩阵第i列-第i列均值)^T(样本矩阵第j列-第j列均值)}{样本数-1} Σij=样本数1(样本矩阵第ii列均值)T(样本矩阵第jj列均值)
X X X, Y Y Y两个变量独立时, C o v ( X , Y ) Cov(X,Y) Cov(X,Y)为0:
E ( X Y ) = ∑ x ∑ y x × y × p ( x , y ) = ∑ x ∑ y x × y × p x ( x ) × p y ( y ) = ∑ x x × p x ( x ) ∑ y y × p y ( y ) = E ( X ) E ( Y ) \begin{aligned} E(XY) & = \sum_x \sum_y {x \times y \times p(x,y)} \notag \\ & = \sum_x \sum_y x \times y \times p_x(x) \times p_y(y) \notag \\ & = \sum_x{x \times p_x(x)}\sum_y{y \times p_y(y)} \notag \\ & = E(X)E(Y) \notag \end{aligned} E(XY)=xyx×y×p(x,y)=xyx×y×px(x)×py(y)=xx×px(x)yy×py(y)=E(X)E(Y)

由于 x 1 x_1 x1 x 2 x_2 x2 是相互独立的,所以 σ 12 = σ 21 = 0 \sigma_{12}=\sigma_{21}=0 σ12=σ21=0。这样, Σ \Sigma Σ 退化成 [ σ 1 2 0 0 σ 2 2 ] \begin{bmatrix} \sigma_1^2 & 0 \\ 0 & \sigma_{2}^2 \end{bmatrix} [σ1200σ22]
Σ \Sigma Σ 的行列式 ∣ Σ ∣ = σ 1 2 σ 2 2 |\Sigma|=\sigma_1^2 \sigma_2^2 ∣Σ∣=σ12σ22,代入公式 (4) 就可以得到:
f ( x ‾ ) = 1 ( 2 π ) 2 / 2 ∣ Σ ∣ 1 / 2 e x p ( − 1 2 [ ( x 1 − u 1 σ 1 ) 2 + ( x 2 − u 2 σ 2 ) 2 ] ) f(\overline x)=\frac{1}{(2\pi)^{2/2}|\Sigma|^{1/2}}exp(-\frac{1}{2}[(\frac{x_1-u_1}{\sigma_1})^2+(\frac{x_2-u_2}{\sigma_2})^2]) f(x)=(2π)2/2∣Σ1/21exp(21[(σ1x1u1)2+(σ2x2u2)2])
这样一来,我们已经推出了公式的左半部分,下面,开始处理右面的 exp 函数。
原始的高维高斯函数的 exp 函数为: e x p [ − 1 2 ( x ‾ − u ‾ ) T Σ − 1 ( x ‾ − u ‾ ) ] exp[-\frac{1}{2}(\overline x-\overline u)^T\Sigma^{-1}(\overline x-\overline u)] exp[21(xu)TΣ1(xu)],根据前面算出来的 Σ \Sigma Σ,我们可以求出它的逆: Σ − 1 = 1 σ 1 2 σ 2 2 [ σ 2 2 0 0 σ 1 2 ] \Sigma^{-1}=\frac{1}{\sigma_1^2 \sigma_2^2} \begin{bmatrix} \sigma_2^2 & 0 \\ 0 & \sigma_1^2 \end{bmatrix} Σ1=σ12σ221[σ2200σ12]
接下来根据这个二维的例子,将原始的 exp() 展开:
e x p [ − 1 2 ( x ‾ − u ‾ ) T Σ − 1 ( x ‾ − u ‾ ) ] = e x p [ − 1 2 [ x 1 − u 1     x 2 − u 2 ] 1 σ 1 2 σ 2 2 [ σ 2 2 ( x 1 − u 1 ) σ 1 2 ( x 2 − u 2 ) ] ] = e x p [ − 1 2 σ 1 2 σ 2 2 [ σ 2 2 ( x 1 − u 1 ) 2 + σ 1 2 ( x 2 − u 2 ) 2 ] ] = e x p [ − 1 2 [ ( x 1 − u 1 ) 2 σ 1 2 + ( x 2 − u 2 ) 2 σ 2 2 ] ] \begin{aligned} exp[-\frac{1}{2}(\overline x-\overline u)^T\Sigma^{-1}(\overline x-\overline u)] &= exp[-\frac{1}{2} \begin{bmatrix} x_1-u_1 \ \ \ x_2-u_2 \end{bmatrix} \frac{1}{\sigma_1^2 \sigma_2^2} \begin{bmatrix} \sigma_2^2(x_1-u_1) \\ \sigma_1^2(x_2-u_2) \end{bmatrix}] \\ &= exp[-\frac{1}{2\sigma_1^2 \sigma_2^2}[\sigma_2^2(x_1-u_1)^2+\sigma_1^2(x_2-u_2)^2]] \\ &= exp[-\frac{1}{2}[\frac{(x_1-u_1)^2}{\sigma_1^2}+\frac{(x_2-u_2)^2}{\sigma_2^2}]] \end{aligned} exp[21(xu)TΣ1(xu)]=exp[21[x1u1   x2u2]σ12σ221[σ22(x1u1)σ12(x2u2)]]=exp[2σ12σ221[σ22(x1u1)2+σ12(x2u2)2]]=exp[21[σ12(x1u1)2+σ22(x2u2)2]]
展开到最后,发现推出了原公式。说明原公式 N ( x ‾ ∣ u ‾ , Σ ) = 1 ( 2 π ) D / 2 1 ∣ Σ ∣ 1 / 2 e x p [ − 1 2 ( x ‾ − u ‾ ) T Σ − 1 ( x ‾ − u ‾ ) ] N(\overline x | \overline u, \Sigma)=\frac{1}{(2\pi)^{D/2}}\frac{1}{|\Sigma|^{1/2}}exp[-\frac{1}{2}(\overline x-\overline u)^T\Sigma^{-1}(\overline x-\overline u)] N(xu,Σ)=(2π)D/21∣Σ1/21exp[21(xu)TΣ1(xu)]是成立的。


2. 参数估计

如果给定了很多数据点,并且知道它们服从某个高斯分布,我们要求高斯分布的参数( μ μ μ Σ Σ Σ),估计模型参数的方法有很多,最常用的就是极大似然估计(MLE)。对于一维的高斯模型假如有m个数据点,则似然函数:
f ( x 1 , x 2 , … , x m ) = ∏ i = 1 m 1 2 π σ e x p ( − ( x i − μ ~ ) 2 2 σ 2 ) f(x_1, x_2, \dots, x_m)=\prod_{i=1}^{m}\frac{1}{\sqrt{2\pi}\sigma}exp(-\frac{(x_i-\tilde \mu)^2}{2\sigma^2}) f(x1,x2,,xm)=i=1m2π σ1exp(2σ2(xiμ~)2)取对数后求导,令导数为 0 得到似然方程。 ∂ ln ⁡ f ∂ μ ‾ = 1 σ 2 ∑ i = 1 m ( x i − μ ~ ) = 0 \frac{\partial \ln f}{\partial \overline \mu}=\frac{1}{\sigma^2}\sum_{i=1}^{m}{(x_i-\tilde \mu)}=0 μlnf=σ21i=1m(xiμ~)=0 ∂ ln ⁡ f ∂ σ = − m σ + 1 σ 3 ∑ i = 1 m ( x i − μ ~ ) = 0 \frac{\partial \ln{f}}{\partial \sigma}=-\frac{m}{\sigma}+\frac{1}{\sigma^3}\sum_{i=1}^m{(x_i-\tilde \mu)}=0 σlnf=σm+σ31i=1m(xiμ~)=0得到 μ ~ = 1 m ∑ i = 1 m x i \tilde \mu=\frac{1}{m}\sum_{i=1}^m{x_i} μ~=m1i=1mxi σ = 1 m ∑ i = 1 m ( x i − μ ~ ) 2 \sigma=\sqrt{\frac{1}{m}\sum_{i=1}^m{(x_i-\tilde \mu)^2}} σ=m1i=1m(xiμ~)2

多维高斯分布时,假如有m个p维向量 x x x,参数估计为:
在计算样本协方差矩阵时,我们要使用无偏估计,即将分母由 m m m 改为 ( m − 1 ) (m-1) (m1)


3. 高斯分布运算

3.1 一元高斯分布相乘

假设 p ( x 1 ) = N ( x ∣ μ 1 , σ 1 ) ,   p ( x 2 ) = N ( x ∣ μ 2 , σ 2 ) p(x_1)=\mathcal{N}(x\vert \mu_1,\sigma_1), \, p(x_2)=\mathcal{N}(x\vert \mu_2,\sigma_2) p(x1)=N(xμ1,σ1),p(x2)=N(xμ2,σ2)均是关于变量
x x x的分布,得两个高斯分布相乘仍为缩放的高斯分布:
p ( x 1 ) p ( x 2 ) = e − 1 2 σ 1 2   ( x − μ 1 ) 2 e − 1 2 σ 2 2   ( x − μ 2 ) 2 = e − 1 2 ( σ 1 2   + σ 2 2   )   x 2 − 2 ( μ 1   σ 2 2 + μ 2   σ 1 2 ) x + constant σ 1 2 σ 2 2 \begin{align*} p(x_1)p(x_2) & = e^{-\frac{1}{2\sigma_1^2}\, (x-\mu_1)^2}e^{-\frac{1}{2\sigma_2^2}\, (x-\mu_2)^2} \\ & =e^{-\frac{1}{2}\frac{(\sigma_1^2\, +\sigma_2^2\, )\, x^2-2(\mu_1\, \sigma_2^2+\mu_2\, \sigma_1^2)x+\text{constant}}{\sigma_1^2\sigma_2^2}}\end{align*} p(x1)p(x2)=e2σ121(xμ1)2e2σ221(xμ2)2=e21σ12σ22σ12+σ22x22(μ1σ22+μ2σ12)x+constant则高斯分布的参数: μ = μ 1 σ 2 2 + μ 2 σ 1 2 σ 1 2 + σ 2 2   ,    σ = σ 1 2 σ 2 2 σ 1 2 + σ 2 2 \begin{align*} \mu & = \frac{\mu_1\sigma_2^2+\mu_2\sigma_1^2}{\sigma_1^2+\sigma_2^2} \ ,\ \ \sigma = \sqrt{\frac{\sigma_1^2\sigma_2^2}{\sigma_1^2+\sigma_2^2}} \end{align*} μ=σ12+σ22μ1σ22+μ2σ12 ,  σ=σ12+σ22σ12σ22 上式可写为如下形式,从而推广至 n n n个一维高斯分布相乘 μ = ( μ 1 σ 1 2 + μ 2 σ 2 2 ) σ 2   ,    1 σ 2 = 1 σ 1 2 + 1 σ 2 2 \begin{align*} \mu &= (\frac{\mu_1}{\sigma_1^2}+\frac{\mu_2}{\sigma_2^2})\sigma^2 \ ,\ \ \frac{1}{\sigma^2} = \frac{1}{\sigma_1^2} + \frac{1}{\sigma_2^2} \end{align*} μ=(σ12μ1+σ22μ2)σ2 ,  σ21=σ121+σ221
新函数等价于正态分布 N ( μ , σ 2 ) N(\mu,\sigma^2) N(μ,σ2) 的概率密度函数乘以缩放因子 A A A 。其中,缩放因子 A = e − ( μ 1 − μ 2 ) 2 2 ( σ 1 2 + σ 2 2 ) 2 π ( σ 1 2 + σ 2 2 ) A=\frac{e^{-\frac{\left(\mu_1-\mu_2\right)^2}{2(\sigma_1^2+\sigma_2^2)}}}{\sqrt{2\pi\left( \sigma_1^2+\sigma_2^2\right)}} A=2π(σ12+σ22) e2(σ12+σ22)(μ1μ2)2

3.2 多元高斯分布相乘

μ = Σ ( Σ 1 − 1 μ 1 + Σ 2 − 1 μ 2 ) Σ = ( Σ 1 − 1 + Σ 2 − 1 ) − 1 \begin{aligned} \boldsymbol \mu & = \boldsymbol{\varSigma }\left( \boldsymbol{\varSigma }_{1}^{-1}\boldsymbol{\mu }_1+\boldsymbol{\varSigma }_{2}^{-1}\boldsymbol{\mu }_2 \right) \\ \boldsymbol \Sigma &= { \left (\boldsymbol \Sigma^{-1}_1 + \boldsymbol \Sigma^{-1}_2 \right )}^{-1} \end{aligned} μΣ=Σ(Σ11μ1+Σ21μ2)=(Σ11+Σ21)1

3.3 高斯分布相加

两个高斯分布函数直接相加,很明显不是一个高斯函数。如果两个满足高斯分布的随机变量相加,那么他们的和还是一个高斯分布。具体的,如果 X ∼ N ( μ X , σ X 2 ) X\sim N(\mu _{X},\sigma _{X}^{2}) XN(μX,σX2), Y ∼ N ( μ Y , σ Y 2 ) Y\sim N(\mu _{Y},\sigma _{Y}^{2}) YN(μY,σY2) Z = X + Y Z=X+Y Z=X+Y 那么 Z ∼ N ( μ X + μ Y , σ X 2 + σ Y 2 ) Z\sim N(\mu _{X}+\mu _{Y},\sigma _{X}^{2}+\sigma _{Y}^{2}) ZN(μX+μY,σX2+σY2)

需要用到卷积运算: ( f ∗ g ) ( n ) = ∫ − ∞ ∞ f ( τ ) g ( n − τ ) d τ \displaystyle (f*g)(n)=\int_{-\infty}^{\infty}f(\tau)g(n-\tau)d\tau (fg)(n)=f(τ)g(nτ)dτ

F Z ( z ) = P ( Z ≤ z ) = P ( X + Y ≤ z ) = ∬ x + y ≤ z f ( x , y ) d x d y = ∫ − ∞ ∞ d x ∫ − ∞ z − x f ( x , y ) d y = 令u=y+x ∫ − ∞ ∞ d x ∫ − ∞ z f ( x , u − x ) d u = ∫ − ∞ z d u ∫ − ∞ ∞ f ( x , u − x ) d x \begin{aligned} F_{Z}(z) &=P(Z\leq z)=P(X+Y\leq z)\\ &=\iint_{x+y\leq z}f(x,y)dxdy\\ &=\int_{-\infty}^{\infty}dx\int_{-\infty}^{z-x}f(x,y)dy\\ &\overset{\text{令u=y+x}}{=}\int_{-\infty}^{\infty}dx\int_{-\infty}^{z}f(x,u-x)du\\ &=\int_{-\infty}^{z}du\int_{-\infty}^{\infty}f(x,u-x)dx\\ \end{aligned} FZ(z)=P(Zz)=P(X+Yz)=x+yzf(x,y)dxdy=dxzxf(x,y)dy=u=y+xdxzf(x,ux)du=zduf(x,ux)dx 所以,Z的概率密度函数为:
f Z ( z ) = ∫ − ∞ ∞ f ( x , z − x ) d x f_Z(z) = \int_{-\infty}^{\infty}f(x,z-x)dx fZ(z)=f(x,zx)dx X , Y X,Y XY为独立随机变量时, Z Z Z的概率密度为 f Z ( z ) = ∫ − ∞ ∞ f Y ( z − x ) f X ( x )   d x {\displaystyle f_{Z}(z)=\int _{-\infty }^{\infty }f_{Y}(z-x)f_{X}(x)\,dx} fZ(z)=fY(zx)fX(x)dx

法二:使用特征函数证明
高斯分布的特征函数为: φ ( t ) = exp ⁡ ( i t μ − σ 2 t 2 2 ) \varphi (t)=\exp \left(it\mu -{\sigma ^{2}t^{2} \over 2}\right) φ(t)=exp(itμ2σ2t2)所以,
φ X + Y ( t ) = E ⁡ ( e i t ( X + Y ) ) = φ X ( t ) φ Y ( t ) = exp ⁡ ( i t μ X − σ X 2 t 2 2 ) exp ⁡ ( i t μ Y − σ Y 2 t 2 2 ) = exp ⁡ ( i t ( μ X + μ Y ) − ( σ X 2 + σ Y 2 ) t 2 2 ) . {\displaystyle {\begin{aligned}\varphi _{X+Y}(t)=\operatorname {E} \left(e^{it(X+Y)}\right)= \varphi _{X}(t)\varphi _{Y}(t)&=\exp \left(it\mu _{X}-{\sigma _{X}^{2}t^{2} \over 2}\right)\exp \left(it\mu _{Y}-{\sigma _{Y}^{2}t^{2} \over 2}\right)\\[6pt]&=\exp \left(it(\mu _{X}+\mu _{Y})-{(\sigma _{X}^{2}+\sigma _{Y}^{2})t^{2} \over 2}\right).\end{aligned}}} φX+Y(t)=E(eit(X+Y))=φX(t)φY(t)=exp(itμX2σX2t2)exp(itμY2σY2t2)=exp(it(μX+μY)2(σX2+σY2)t2).

3.4 高斯线性模型

{ P ( x ) = N ( x ∣ μ , Λ − 1 ) P ( y ∣ x ) = N ( y ∣ A x + b , L − 1 ) ⟶ P ( y ) = N ( y ∣ A μ + b , L − 1 + A Λ − 1 A T ) ↓ P ( x ∣ y ) = N ( x ∣ μ + Λ − 1 A T ( L − 1 + A Λ − 1 A T ) ( y − A μ − b ) , Λ − 1 − Λ − 1 A T ( L − 1 + A Λ − 1 A T ) − 1 A Λ − 1 ) \begin{cases} P(x)=N(x|\mu,\Lambda^{-1})\\ P(y|x)=N(y|Ax+b,L^{-1}) \end{cases} \longrightarrow P(y)=N(y|A\mu+b,L^{-1}+A\Lambda^{-1}A^T) \\ \downarrow\\ P(x|y)=N(x|\mu+\Lambda^{-1}A^T(L^{-1}+A\Lambda^{-1}A^T)(y-A\mu-b),\Lambda^{-1}-\Lambda^{-1}A^T(L^{-1}+A\Lambda^{-1}A^T)^{-1}A\Lambda^{-1}) {P(x)=N(xμ,Λ1)P(yx)=N(yAx+b,L1)P(y)=N(yAμ+b,L1+AΛ1AT)P(xy)=N(xμ+Λ1AT(L1+AΛ1AT)(yAμb),Λ1Λ1AT(L1+AΛ1AT)1AΛ1)

高斯线性系统推导如下:
p ( x ) = N ( μ 0 , Σ 0 ) y = A x + b + ϵ ,   ϵ ∼ N ( 0 , Σ y ) p ( y ∣ x ) = N ( A x + b , Σ y ) \begin{align*} p(x)=\mathcal{N}(\mathbf{\mu_0,\Sigma_0})\\ y= Ax+ b + \epsilon, \ \epsilon\sim\mathcal{N}(\mathbf{0},\Sigma_y) \\ p(y\vert x)=\mathcal{N}(A\mathcal{x}+b,\Sigma_y) \end{align*} p(x)=N(μ0,Σ0)y=Ax+b+ϵ, ϵN(0,Σy)p(yx)=N(Ax+b,Σy)

y y y x \mathbf{x} x 产生,在观测到 y y y 后可以对 x \mathbf{x} x 进行更新(update): p ( x ∣ y ) = N ( μ x ∣ y , Σ x ∣ y ) p(x\vert y) = \mathcal{N}(\mu_{x\vert y},\Sigma_{x\vert y}) p(xy)=N(μxy,Σxy),没观测到 y y y 可以对其预测(predict) P ( y ) P(y) P(y)
下面对 μ x ∣ y , Σ x ∣ y \mu_{x\vert y},\Sigma_{x\vert y} μxy,Σxy进行计算:
Σ x ∣ y − 1 = Σ 0 − 1 + A T Σ y − 1 A μ x ∣ y = Σ x ∣ y ( Σ 0 − 1 μ 0 + A T Σ y − 1 ( y − b ) ) \begin{align*} \Sigma_{x\vert y}^{-1} & = \Sigma_{0}^{-1}+A^T\Sigma_{y}^{-1}A\\ \mu_{x \vert y}& = \Sigma_{x\vert y}(\Sigma_0^{-1}\mu_0+A^T\Sigma_{y}^{-1}(y-b)) \end{align*} Σxy1μxy=Σ01+ATΣy1A=Σxy(Σ01μ0+ATΣy1(yb))

p ( y ) p(y) p(y) 的分布参数如下:
μ = A μ 0 + b Σ = Σ y + A Σ 0 A T \begin{align*} \mu &= A\mu_0 +b \\ \Sigma &= \Sigma_y+A\Sigma_0A^T \end{align*} μΣ=Aμ0+b=Σy+AΣ0AT


4. 高斯分布性质

多元正态分布有4种等价的定义。

定义1–由标准正态随机向量线性组合得到

U = ( U 1 , U 2 , ⋯   , U q ) ′ U=\left(U_{1}, U_{2}, \cdots, U_{q}\right)^{\prime} U=(U1,U2,,Uq) 为随机向量, U 1 , ⋯   , U q U_{1}, \cdots, U_{q} U1,,Uq 独立服从标准正态。设 μ \mu μ p p p 维常数向量, A A A p × q p \times q p×q 维常数矩阵,则称 X = A U + μ X=A U+\mu X=AU+μ 的分布为 p p p 元正态分布,或称 X X X p p p 维正态随机向量,记作 X ∼ N p ( μ , A A ′ ) X \sim N_{p}\left(\mu, A A^{\prime}\right) XNp(μ,AA)

性质1–特征函数

在概率论中,任何随机变量的特征函数(ch.f)完全定义了它的概率分布。在实直线上,它由以下公式给出,其中X是任何具有该分布的随机变量: φ X ( t ) = E [ e i t X ] \varphi _ X(t) = E[e^{itX}] φX(t)=E[eitX]
φ X ( t ) = E [ e i t X ] = ⏞ 泰勒展开 E ( 1 + i t X 1 − t 2 X 2 2 ! + ⋯ + ( i t ) n X n n ! ) = E ( 1 ) + E ( i t X 1 ) − E ( t 2 X 2 2 ! ) + ⋯ + E ( ( i t ) n X n n ! ) = 1 + i t E [ X ] ⏞ 一阶矩 1 − t 2 E [ X 2 ] ⏞ 二阶矩 2 ! + ⋯ + ( i t ) n E [ X n ] ⏞ n阶矩 n ! ) \begin{aligned} \varphi_X(t) &= E[e^{itX}]\\ &\overbrace{=}^{\text{泰勒展开}} E(1 + \frac{it X}{1} - \frac{t^2 X^2}{2!} + \cdots + \frac{(it)^n X^n}{n!})\\ &= E(1) + E(\frac{it X}{1}) - E(\frac{t^2 X^2}{2!}) + \cdots + E(\frac{(it)^n X^n}{n!})\\ &= 1 + \frac{it \overbrace{E[X]}^{\text{一阶矩}}}{1} - \frac{t^2 \overbrace{E[X^2]}^{\text{二阶矩}}}{2!} + \cdots + \frac{(it)^n \overbrace{E[X^n]}^{\text{n阶矩}}}{n!}) \end{aligned} φX(t)=E[eitX]= 泰勒展开E(1+1itX2!t2X2++n!(it)nXn)=E(1)+E(1itX)E(2!t2X2)++E(n!(it)nXn)=1+1itE[X] 一阶矩2!t2E[X2] 二阶矩++n!(it)nE[Xn] n阶矩)

k k k阶原点矩: E [ X k ]  或  A k = 1 n ∑ i = 1 n X i k , k = 1 , 2 , ⋯ E[X^k] \ 或 \ A_k=\frac{1}{n}\sum_{i=1}^{n}X_i^k,\quad k=1,2,\cdots E[Xk]  Ak=n1i=1nXik,k=1,2,
k k k阶中心矩: E [ ( X − E ( X ) ) k ]  或  A k = 1 n ∑ i = 1 n ( X i − X ˉ ) k , k = 2 , 3 , ⋯ E[(X-E(X))^k] \ 或 \ A_k=\frac{1}{n}\sum_{i=1}^{n}(X_i-\bar{X})^k,\quad k=2,3,\cdots E[(XE(X))k]  Ak=n1i=1n(XiXˉ)k,k=2,3,

可见特征函数包含了分布函数的所有矩(moment),也就是包含了分布函数的所有特征。
所以,特征函数其实是随机变量 X X X 的分布的另外一种描述方式。
假设某连续随机变量 X X X的概率密度函数为 f ( x ) f(x) f(x),那么可知: E ( X ) = ∫ − ∞ + ∞ x f ( x ) d x E(X)=\int _{-\infty }^{+\infty }xf(x)dx E(X)=+xf(x)dx,特征函数为:
φ X ( t ) = E [ e i t X ] = ∫ − ∞ + ∞ e i t x f ( x ) d x \begin{aligned} \varphi _ X(t) = E[e^{itX}] = \int _{-\infty }^{+\infty }e^{itx}f(x)dx \end{aligned} φX(t)=E[eitX]=+eitxf(x)dx 特征函数把分布函数换到另外一个坐标系,也可以获得一些计算的好处

  • 假如我们不知道分布函数,但是通过实验算出了期望、方差、偏度、峰度等,那么可以用特征函数去代替分布函数
  • 两个分布函数的卷积 f ∗ g f*g fg 通过特征函数更换坐标系后,可以变为更容易计算的乘法: φ ( f ∗ g ) = φ ( f ) φ ( g ) \varphi (f*g)=\varphi (f)\varphi (g) φ(fg)=φ(f)φ(g)
  • 通过对 t t t 求导,可以简单求出各阶矩: φ X ( k ) ( 0 ) = i k E [ X k ] \varphi _{X}^{(k)}(0)=i^{k}E[X^{k}] φX(k)(0)=ikE[Xk]

由定义1得到的随机向量 X X X 的特征函数为
Φ X ( t ) = exp ⁡ [ i t ′ μ − 1 2 t ′ A A ′ t ] \Phi_{X}(t)=\exp \left[i t^{\prime} \mu-\frac{1}{2} t^{\prime} A A^{\prime} t\right] ΦX(t)=exp[itμ21tAAt]其中 t = ( t 1 , ⋯   , t p ) ′ ∈ R p t=\left(t_{1}, \cdots, t_{p}\right)^{\prime} \in \mathbb{R}^{p} t=(t1,,tp)Rp
证明:首先考虑一维标准正态分布的特征函数为 Φ U i ( t i ) = exp ⁡ [ − 1 2 t i 2 ] \Phi_{U_{i}}\left(t_{i}\right)=\exp \left[-\frac{1}{2} t_{i}^{2}\right] ΦUi(ti)=exp[21ti2]
根据独立性有
Φ U ( t ) = exp ⁡ [ − 1 2 ∑ i = 1 q t i 2 ] = exp ⁡ [ − 1 2 t ′ t ] \Phi_{U}(t)=\exp \left[-\frac{1}{2} \sum_{i=1}^{q} t_{i}^{2}\right]=\exp \left[-\frac{1}{2} t^{\prime} t\right] ΦU(t)=exp[21i=1qti2]=exp[21tt]进而根据 X 的定义得到
Φ X ( t ) = E [ exp ⁡ { i t ′ X } ] = E [ exp ⁡ { i t ′ ( A U + μ ) } ] = E [ exp ⁡ { i t ′ μ } ] E [ exp ⁡ { i t ′ A U } ] = E [ exp ⁡ { i t ′ μ } ] E [ exp ⁡ { i ( A ′ t ) ′ U } ] \begin{aligned} \Phi_{X}(t) &=E[\exp\left\{i t^{\prime} X\right\}]=E[\exp \left\{i t^{\prime}(A U+\mu)\right\}] \\ &=E[\exp \left\{i t^{\prime} \mu\right\}] E[\exp \left\{i t^{\prime} A U\right\}]=E[\exp \left\{i t^{\prime} \mu\right\}]E [\exp \left\{i\left(A^{\prime} t\right)^{\prime} U\right\}] \end{aligned} ΦX(t)=E[exp{itX}]=E[exp{it(AU+μ)}]=E[exp{itμ}]E[exp{itAU}]=E[exp{itμ}]E[exp{i(At)U}]其中 E [ exp ⁡ { i ( A ′ t ) ′ U } ] E[\exp \left\{i\left(A^{\prime} t\right)^{\prime} U\right\}] E[exp{i(At)U}] Φ U ( A ′ t ) \Phi_{U}(A^{\prime}t) ΦU(At) ,代入即得结论.

定义2–由特征函数定义

如果随机向量 X 的特征函数具有如下形式 Φ X ( t ) = exp ⁡ [ i t ′ μ − 1 2 t ′ Σ t ] \Phi_{X}(t)=\exp \left[i t^{\prime} \mu-\frac{1}{2} t^{\prime} \Sigma t\right] ΦX(t)=exp[itμ21tΣt], 则称 X X X 服从 p p p 维正态分布,记作 X ∼ N p ( μ , Σ ) X \sim N_{p}(\mu, \Sigma) XNp(μ,Σ)

性质2–正态随机向量任意线性变换仍服从正态分布

X ∼ N p ( μ , Σ ) X \sim N_{p}(\mu, \Sigma) XNp(μ,Σ),令 Z = B X + d Z=B X+d Z=BX+d ,则 Z ∼ N s ( B μ + d , B Σ B ′ ) Z \sim N_{s}\left(B \mu+d, B \Sigma B^{\prime}\right) ZNs(Bμ+d,BΣB) ,其中 B B B s × q s \times q s×q 维矩阵, d d d s s s 维向量.

推论–子向量的均值与协方差:

X = [ X ( 1 ) X ( 2 ) ] r p − r ∼ N p ( μ , Σ ) X=\left[\begin{array}{c} X^{(1)} \\ X^{(2)} \end{array}\right] \quad \begin{array}{c} r \\ p-r \end{array} \sim N_{p}(\mu, \Sigma) X=[X(1)X(2)]rprNp(μ,Σ) ,将 μ \mu μ, Σ \Sigma Σ 分为
μ = [ μ ( 1 ) μ ( 2 ) ] r p − r , Σ = [ Σ 11 Σ 12 Σ 21 Σ 22 ] r p − r \mu=\left[\begin{array}{c} \mu^{(1)} \\ \mu^{(2)} \end{array}\right] \begin{array}{c} r \\ p-r \end{array}, \Sigma=\left[\begin{array}{cc} \Sigma_{11} & \Sigma_{12} \\ \Sigma_{21} & \Sigma_{22} \end{array}\right] \begin{array}{c} r \\ p-r \end{array} μ=[μ(1)μ(2)]rpr,Σ=[Σ11Σ21Σ12Σ22]rpr 则有 X ( 1 ) ∼ N r ( μ ( 1 ) , Σ 11 ) , X ( 2 ) ∼ N p − r ( μ ( 2 ) , Σ 22 ) X^{(1)} \sim N_{r}\left(\mu^{(1)}, \Sigma_{11}\right), X^{(2)} \sim N_{p-r}\left(\mu^{(2)}, \Sigma_{22}\right) X(1)Nr(μ(1),Σ11),X(2)Npr(μ(2),Σ22)
注意: Σ 12 ≠ Σ 21 \Sigma_{12} \neq \Sigma_{21} Σ12=Σ21 ,两者互为转置

性质3–多元正态 ⇔ \Leftrightarrow 任意线性组合为一元正态

X = ( X 1 , X 2 , ⋯   , X p ) ′ X=\left(X_{1}, X_{2}, \cdots, X_{p}\right)^{\prime} X=(X1,X2,,Xp) p p p 维随机向量,则 X X X 服从 p p p 元正态分布等价于对任意 p p p 维实向量, ξ = a ′ X \xi=a^{\prime} X ξ=aX 是一维正态随机变量.
证明
当 X 为 p 元正态分布,由性质2知 ξ \xi ξ 为一维正态随机变量。
反之,如果对任意 a a a ξ = a ′ X \xi=a^{\prime} X ξ=aX 为一维正态随机变量,则 ξ \xi ξ 各阶矩存在,进而 X X X 的均值和协方差存在,分别设为 μ , Σ \mu,\Sigma μ,Σ ,则
ξ = a ′ X ∼ N ( a ′ μ , a ′ Σ a ) \xi=a^{\prime} X \sim N\left(a^{\prime} \mu, a^{\prime} \Sigma a\right) ξ=aXN(aμ,aΣa) 进而考察 X 的特征函数得到
Φ X ( a ) = exp ⁡ [ i a ′ X ] = exp ⁡ [ i ξ ] = Φ ξ ( 1 ) = exp ⁡ [ i a ′ μ − 1 2 a ′ Σ a ] \Phi_{X}(a)=\exp \left[i a^{\prime} X\right]=\exp [i \xi]=\Phi_{\xi}(1)=\exp \left[\mathrm{i} a^{\prime} \mu-\frac{1}{2} a^{\prime} \Sigma a\right] ΦX(a)=exp[iaX]=exp[iξ]=Φξ(1)=exp[iaμ21aΣa] 刚好等于多元正态的特征函数,由特征函数与分布的一一对应得到结论.

定义3–任意线性组合为正态

如果 p p p 维随机向量 X X X 的任意线性组合均服从一元正态分布,则称 X X X p p p正态随机向量.

性质4–联合密度函数

如果 X ∼ N p ( μ , Σ ) X \sim N_{p}(\mu, \Sigma) XNp(μ,Σ) Σ > 0 \Sigma>0 Σ>0 ,则 X X X联合密度函数
f ( x ) = 1 ( 2 π ) p / 2 ∣ Σ ∣ 1 / 2 exp ⁡ [ − 1 2 ( x − μ ) ′ Σ − 1 ( x − μ ) ] f(x)=\frac{1}{(2 \pi)^{p / 2}|\Sigma|^{1 / 2}} \exp \left[-\frac{1}{2}(x-\mu)^{\prime} \Sigma^{-1}(x-\mu)\right] f(x)=(2π)p/2∣Σ1/21exp[21(xμ)Σ1(xμ)]

定义4–密度函数

如果 p p p 维随机向量 X X X 的联合密度函数为
f ( x ) = 1 ( 2 π ) p / 2 ∣ Σ ∣ 1 / 2 exp ⁡ [ − 1 2 ( x − μ ) ′ Σ − 1 ( x − μ ) ] f(x)=\frac{1}{(2 \pi)^{p / 2}|\Sigma|^{1 / 2}} \exp \left[-\frac{1}{2}(x-\mu)^{\prime} \Sigma^{-1}(x-\mu)\right] f(x)=(2π)p/2∣Σ1/21exp[21(xμ)Σ1(xμ)] 则称 X X X p p p 维正态随机向量.
注意:定义4要求 Σ > 0 \Sigma>0 Σ>0 ,其他三个只要求 Σ ≥ 0 \Sigma \geq0 Σ0 ,一般也不考虑 X X X 为退化随机向量的情况.

5. 高斯条件分布和独立性

仅讨论 Σ ≥ 0 \Sigma \geq0 Σ0 (即半正定) 的情形

定理1–正态随机向量的独立性等价于协方差为0矩阵

定理2–条件分布

X = [ X ( 1 ) X ( 2 ) ] r p − r ∼ N p ( μ , Σ ) ( Σ > 0 ) X=\left[\begin{array}{c}X^{(1)} \\ X^{(2)}\end{array}\right] \begin{array}{c}r \\ p-r\end{array} \sim N_{p}(\mu, \Sigma)(\Sigma>0) X=[X(1)X(2)]rprNp(μ,Σ)(Σ>0) ,则当 X ( 2 ) = x ( 2 ) X^{(2)}=x^{(2)} X(2)=x(2) 给定时, X ( 1 ) X^{(1)} X(1) 的条件分布为
( X ( 1 ) ∣ X ( 2 ) = x ( 2 ) ) ∼ N r ( μ 1 ⋅ 2 , Σ 11 ⋅ 2 ) \left(X^{(1)} \mid X^{(2)}=x^{(2)}\right) \sim N_{r}\left(\mu_{1 \cdot 2}, \Sigma_{11 \cdot 2}\right) (X(1)X(2)=x(2))Nr(μ12,Σ112)其中
μ 1 ⋅ 2 = μ ( 1 ) + Σ 12 Σ 22 − 1 ( x ( 2 ) − μ ( 2 ) ) Σ 1 ⋅ 2 = Σ 11 − Σ 12 Σ 22 − 1 Σ 21 \begin{aligned} \mu_{1 \cdot 2} &=\mu^{(1)}+\Sigma_{12} \Sigma_{22}^{-1}\left(x^{(2)}-\mu^{(2)}\right) \\ \Sigma_{1 \cdot 2} &=\Sigma_{11}-\Sigma_{12} \Sigma_{22}^{-1} \Sigma_{21} \end{aligned} μ12Σ12=μ(1)+Σ12Σ221(x(2)μ(2))=Σ11Σ12Σ221Σ21
证明:从回归的角度会比较容易理解,理论依据是,在均方意义下,线性回归的结果就是条件期望。将 X 中心化后做回归
X ( 1 ) − μ ( 1 ) = β ′ ( X ( 2 ) − μ ( 2 ) ) + ε X^{(1)}-\mu^{(1)}=\beta^{\prime}\left(X^{(2)}-\mu^{(2)}\right)+\varepsilon X(1)μ(1)=β(X(2)μ(2))+ε

那么 β ′ ( x ( 2 ) − μ ( 2 ) ) \beta^{\prime}\left(x^{(2)}-\mu^{(2)}\right) β(x(2)μ(2)) 就是 X ( 1 ) − μ ( 1 ) X^{(1)}-\mu^{(1)} X(1)μ(1) 的条件期望。现在假设对于每个变量,都有 n n n 个观测数据,并将回归形式改写为 Z t = β ′ R t + ε Z_t=\beta^{\prime}R_t+\varepsilon Zt=βRt+ε ,那么利用最小二乘估计可以得到参数的估计量为 β = ( R ′ R ) − 1 R ′ Z \beta=\left(R^{\prime} R\right)^{-1} R^{\prime} Z β=(RR)1RZ 。考虑当 n n n 充分大的情况下, ( R ′ R ) − 1 \left(R^{\prime} R\right)^{-1} (RR)1 对应了 Σ 22 − 1 , R ′ Z \Sigma_{22}^{-1} , R^{\prime} Z Σ221RZ 对应了 Σ 21 \Sigma_{21} Σ21 进而对 β \beta β 求转置后得到
X ( 1 ) = μ ( 1 ) + Σ 12 Σ 22 − 1 ( X ( 2 ) − μ ( 2 ) ) + ε X^{(1)}=\mu^{(1)}+\Sigma_{12}\Sigma_{22}^{-1}\left(X^{(2)}-\mu^{(2)}\right)+\varepsilon X(1)=μ(1)+Σ12Σ221(X(2)μ(2))+ε

因此条件期望就是 μ 1 ⋅ 2 = μ ( 1 ) + Σ 12 Σ 22 − 1 ( x ( 2 ) − μ ( 2 ) ) \mu_{1 \cdot 2}=\mu^{(1)}+\Sigma_{12}\Sigma_{22}^{-1} \left(x^{(2)}-\mu^{(2)}\right) μ12=μ(1)+Σ12Σ221(x(2)μ(2))

下面考虑条件方差的计算。做回归后得到的误差项 ε \varepsilon ε 是从 X ( 1 ) X^{(1)} X(1) 中剔除了 X ( 2 ) X^{(2)} X(2) 对其的影响,那么条件方差就应该等于误差项的方差,即
Σ 1 ⋅ 2 = Var ⁡ ε = Var ⁡ ( X ( 1 ) − μ ( 1 ) ) − Var ⁡ [ Σ 12 Σ 22 − 1 ( X ( 2 ) − μ ( 2 ) ) ] = Σ 11 − Σ 12 Σ 22 − 1 Σ 22 ( Σ 12 Σ 22 − 1 ) ′ = Σ 11 − Σ 12 Σ 22 − 1 Σ 21 \begin{aligned} \Sigma_{1 \cdot 2} &=\operatorname{Var} \varepsilon=\operatorname{Var}\left(X^{(1)}-\mu^{(1)}\right)-\operatorname{Var}\left[\Sigma_{12} \Sigma_{22}^{-1}\left(X^{(2)}-\mu^{(2)}\right)\right] \\ &=\Sigma_{11}-\Sigma_{12} \Sigma_{22}^{-1} \Sigma_{22}\left(\Sigma_{12}\Sigma_{22}^{-1}\right)^{\prime}=\Sigma_{11}-\Sigma_{12} \Sigma_{22}^{-1} \Sigma_{21} \end{aligned} Σ12=Varε=Var(X(1)μ(1))Var[Σ12Σ221(X(2)μ(2))]=Σ11Σ12Σ221Σ22(Σ12Σ221)=Σ11Σ12Σ221Σ21

由此可以自然地得到下面的推论:

X ( 2 ) 与 X ( 1 ) − Σ 12 Σ 22 − 1 X ( 2 ) X^{(2)} 与 X^{(1)}-\Sigma_{12} \Sigma_{22}^{-1} X^{(2)} X(2)X(1)Σ12Σ221X(2) 相互独立
X ( 1 ) 与 X ( 2 ) − Σ 21 Σ 11 − 1 X ( 1 ) X^{(1)} 与 X^{(2)}-\Sigma_{21} \Sigma_{11}^{-1} X^{(1)} X(1)X(2)Σ21Σ111X(1) 相互独立
X ( 2 ) ∣ X ( 1 ) ∼ N p − r ( μ 2 ⋅ 1 , Σ 2 ⋅ 1 ) X^{(2)} \mid X^{(1)} \sim N_{p-r}\left(\mu_{2 \cdot 1}, \Sigma_{2 \cdot 1}\right) X(2)X(1)Npr(μ21,Σ21), 其中
μ 2 ⋅ 1 = μ ( 2 ) + Σ 21 Σ 11 − 1 ( x ( 1 ) − μ ( 1 ) ) Σ 2 ⋅ 1 = Σ 22 − Σ 21 Σ 11 − 1 Σ 12 \begin{array}{c} \mu_{2 \cdot 1}=\mu^{(2)}+\Sigma_{21} \Sigma_{11}^{-1}\left(x^{(1)}-\mu^{(1)}\right) \\ \Sigma_{2 \cdot 1}=\Sigma_{22}-\Sigma_{21} \Sigma_{11}^{-1} \Sigma_{12} \end{array} μ21=μ(2)+Σ21Σ111(x(1)μ(1))Σ21=Σ22Σ21Σ111Σ12

问:如果是三个子向量,给定其中两个,求另一个的条件分布呢?
答:把给定的两个看做一个子向量就可以。

条件数字特征

就是刚刚推导的东西的定义

条件期望(Conditional Expectation),回归系数(regression coefficient),偏相关系数(Partial correlation coefficient)
X = [ X ( 1 ) X ( 2 ) ] ∼ N p ( [ μ ( 1 ) μ ( 2 ) ] , [ Σ 11 Σ 12 Σ 21 Σ 22 ] ) X=\left[\begin{array}{c} X^{(1)} \\ X^{(2)} \end{array}\right] \sim N_{p}\left(\left[\begin{array}{c} \mu^{(1)} \\ \mu^{(2)} \end{array}\right],\left[\begin{array}{cc} \Sigma_{11} & \Sigma_{12} \\ \Sigma_{21} & \Sigma_{22} \end{array}\right]\right) X=[X(1)X(2)]Np([μ(1)μ(2)],[Σ11Σ21Σ12Σ22])

根据定理2有 ( X ( 1 ) ∣ X ( 2 ) = x ( 2 ) ) ∼ N r ( μ 1 ⋅ 2 , Σ 1 ⋅ 2 ) \left(X^{(1)} \mid X^{(2)}=x^{(2)}\right) \sim N_{r}\left(\mu_{1 \cdot 2}, \Sigma_{1 \cdot 2}\right) (X(1)X(2)=x(2))Nr(μ12,Σ12),我们把
μ 1 ⋅ 2 = μ ( 1 ) + Σ 12 Σ 22 − 1 ( x ( 2 ) − μ ( 2 ) ) \mu_{1 \cdot 2}=\mu^{(1)}+\Sigma_{12} \Sigma_{22}^{-1}\left(x^{(2)}-\mu^{(2)}\right) μ12=μ(1)+Σ12Σ221(x(2)μ(2))

称为条件期望(Conditional Expectation),记作 E ( X ( 1 ) ∣ X ( 2 ) = x ( 2 ) ) \mathrm{E}\left(X^{(1)} \mid X^{(2)}=x^{(2)}\right) E(X(1)X(2)=x(2)) ;把 Σ 12 Σ 22 − 1 = def B \Sigma_{12} \Sigma_{22}^{-1} \stackrel{\text {def}}{=} B Σ12Σ221=defB 称为回归系数.

区分 E ( X ) 、 E ( X ∣ Y ) 、 E ( X ∣ Y = y ) \mathrm{E}(X) 、 \mathrm{E}(X \mid Y) 、 \mathrm{E}(X \mid Y=y) E(X)E(XY)E(XY=y)
E ( X ) \mathrm{E}(X) E(X):一个数
E ( X ∣ Y ) \mathrm{E}(X \mid Y) E(XY) :随机变量,关于 Y 的函数,没有固定的 y 值
E ( X ∣ Y = y ) \mathrm{E}(X \mid Y=y) E(XY=y) : y 的函数 f(y) ,对于给定的 y ,有唯一确定值与之对应

全期望公式(Law of total expectation)
X , Y X,Y X,Y 为离散型随机变量,下列期望和条件期望均存在,则
E ( X ) = E ( E ( X ∣ Y ) ) = ∑ y E ( X ∣ Y = y ) ⋅ P ( Y = y ) \mathrm{E}(X) = \mathrm{E}(\mathrm{E}(X \mid Y))=\sum_y \mathrm{E}(X \mid Y=y) \cdot \mathrm{P}(Y=y) E(X)=E(E(XY))=yE(XY=y)P(Y=y)

为了定义偏回归系数,将条件方差矩阵的元素具体表示为
Σ 1 ⋅ 2 = ( σ i j ) r × r ( i , j = 1 , ⋯   , r ) \Sigma_{1 \cdot 2}=\left(\sigma_{i j }\right)_{r \times r}(i, j=1, \cdots, r) Σ12=(σij)r×r(i,j=1,,r)

ρ i j ⋅ r + 1 , ⋯   , p = σ i j σ i i σ j j \rho_{i j \cdot r+1, \cdots, p}=\frac{\sigma_{i j }}{\sqrt{\sigma_{i i }} \sqrt{\sigma_{j j }}} ρijr+1,,p=σii σjj σij偏相关系数,即为 X ( 2 ) = ( X r + 1 , ⋯   , X p ) ′ X^{(2)}=\left(X_{r+1}, \cdots, X_{p}\right)^{\prime} X(2)=(Xr+1,,Xp) 给定的条件下, X i , X j X_{i},X_{j} Xi,Xj相关系数.

5.2 高斯边缘分布

如果联合分布 p ( x a , x b ) p(x_a,x_b) p(xa,xb) 是高斯分布,那么条件概率分布 p ( x a ∣ x b ) p(x_a|x_b) p(xaxb) 也是高斯分布,那么边缘概率分布 p ( x a ) = ∫ p ( x a , x b )   d x b p(x_a)=\int_{}^{}p(x_a,x_b)\ dx_b p(xa)=p(xa,xb) dxb 显然也是一个高斯分布。
我们主要研究联合分布的指数项二次型,这次考虑涉及到 x b x_b xb 的项,结合条件高斯分布中对 z 2 = z T z = ( x − μ x ) T Σ − 1 ( x − μ x ) z^2=z^Tz=(x-\mu_x)^T\Sigma^{-1}(x-\mu_x) z2=zTz=(xμx)TΣ1(xμx) 几何形式关于 x a , x b x_a,x_b xa,xb 的分解公式,可以得到:
− 1 2 x b T Λ b b x b + x b T m = − 1 2 ( x b − Λ b b − 1 m ) T Λ b b ( x b − Λ b b − 1 m ) + 1 2 m T Λ b b − 1 m -\frac{1}{2}x_b^T\Lambda_{bb}x_b+x_b^Tm=-\frac{1}{2}(x_b-\Lambda_{bb}^{-1}m)^T\Lambda_{bb}(x_b-\Lambda_{bb}^{-1}m)+\frac{1}{2}m^{T}\Lambda_{bb}^{-1}m 21xbTΛbbxb+xbTm=21(xbΛbb1m)TΛbb(xbΛbb1m)+21mTΛbb1m

其中 m = Λ b b μ b − Λ b a ( x a − μ a ) m=\Lambda_{bb}\mu_b-\Lambda_{ba}(x_a-\mu_a) m=ΛbbμbΛba(xaμa) Λ ≡ Σ − 1 \Lambda\equiv\Sigma^{-1} ΛΣ1 Λ \Lambda Λ为协方差矩阵的逆矩阵,又称为精度矩阵
上式中与 x b x_b xb 相关的项转化为一个高斯分布的标准二次型,结合边缘概率公式需要积分:
∫ e x p { − 1 2 ( x b − Λ b b − 1 m ) T Λ b b ( x b − Λ b b − 1 m ) } d x b \int exp\left\{ -\frac{1}{2}(x_b-\Lambda_{bb}^{-1}m)^T\Lambda_{bb}(x_b-\Lambda_{bb}^{-1}m) \right\}dx_b exp{21(xbΛbb1m)TΛbb(xbΛbb1m)}dxb

上面只提出了关于 x b x_b xb 的二项式,其最后一项 1 2 m T Λ b b − 1 m \frac{1}{2}m^T\Lambda_{bb}^{-1}m 21mTΛbb1m 为和 x b x_b xb 无关但和 x a x_a xa 有关的项,结合前文提到的,除 x b x_b xb 二次项以外的并和 x a x_a xa 有关的项结合,得到:
1 2 [ Λ b b μ b − Λ b a ( x a − μ a ) ] T Λ b b − 1 [ Λ b b μ b − Λ b a ( x a − μ a ) ] − 1 2 x a T Λ a a x a + x a T ( Λ a a − Λ a b Λ b b − 1 Λ b a ) x a = − 1 2 x a T ( Λ a a Λ a b Λ b b − 1 Λ b a x a ) + x a T ( Λ a a − Λ a b Λ b b − 1 Λ b a ) μ a + b \begin{align*}&\frac{1}{2}\left[ \Lambda_{bb}\mu_b-\Lambda_{ba}(x_a-\mu_a) \right]^T\Lambda_{bb}^{-1}\left[ \Lambda_{bb}\mu_b-\Lambda_{ba}(x_a-\mu_a) \right]\\&-\frac{1}{2}x_a^T\Lambda_{aa}x_a+x_a^T(\Lambda_{aa}-\Lambda_{ab}\Lambda_{bb}^{-1}\Lambda_{ba})x_a\\&=-\frac{1}{2}x_a^T(\Lambda_{aa}\Lambda_{ab}\Lambda_{bb}^{-1}\Lambda_{ba}x_a)+x_a^T(\Lambda_{aa}-\Lambda_{ab}\Lambda_{bb}^{-1}\Lambda_{ba})\mu_a+b\end{align*} 21[ΛbbμbΛba(xaμa)]TΛbb1[ΛbbμbΛba(xaμa)]21xaTΛaaxa+xaT(ΛaaΛabΛbb1Λba)xa=21xaT(ΛaaΛabΛbb1Λbaxa)+xaT(ΛaaΛabΛbb1Λba)μa+b

b b b 为常数,是与 x a x_a xa 无关的量,那么可以得到边缘概率的协方差矩阵:
Σ a = ( Λ a a − Λ a b Λ b b − 1 Λ b a ) − 1 \Sigma_{a}=(\Lambda_{aa}-\Lambda_{ab}\Lambda_{bb}^{-1}\Lambda_{ba})^{-1} Σa=(ΛaaΛabΛbb1Λba)1
均值为: μ a = Σ a ( Λ a a − Λ a b Λ b b − 1 Λ b a ) μ a \mu_a=\Sigma_a(\Lambda_{aa}-\Lambda_{ab}\Lambda_{bb}^{-1}\Lambda_{ba})\mu_a μa=Σa(ΛaaΛabΛbb1Λba)μa
前文介绍过分块矩阵逆矩阵的恒等式,那么可以得出:
Σ a a = ( Λ a a − Λ a b Λ b b − 1 Λ b a ) − 1 \Sigma_{aa}=(\Lambda_{aa}-\Lambda_{ab}\Lambda_{bb}^{-1}\Lambda_{ba})^{-1} Σaa=(ΛaaΛabΛbb1Λba)1
最后可以得出边缘概率 p ( x a ) p (x_a) p(xa) 的均值和协方差:
E [ x a ] = μ a , c o v [ x a ] = Σ a a E\left[ x_a \right]=\mu_a , cov\left[ x_a \right]=\Sigma_{aa} E[xa]=μacov[xa]=Σaa
边缘概率分布:
p ( x a ) = N ( x a ∣ μ a , Σ a a ) p(x_a)=\mathcal N(x_a|\mu_a,\Sigma_{aa}) p(xa)=N(xaμa,Σaa)

5.3 混合高斯分布

通过将更基本的概率分布(高斯分布)进行线性组合叠加,然后形式化为概率模型,被称为混合模型。高斯分布的线性组合可以给出相当复杂的概率密度形式。通过使用足够多的高斯分布,并且调节它们的均值和方差以及线性组合的系数、几乎所有的连续概率密度能够以任意的精度近似。考虑 K K K 个高斯概率密度的叠加,形式为:
p ( x ) = ∑ k = 1 K π k   N ( x ∣ μ k , Σ k ) p(x)=\sum_{k=1}^{K}\pi_k\ \mathcal N(x|\mu_k,\Sigma_k) p(x)=k=1Kπk N(xμk,Σk)
称为混合高斯分布,每个高斯概率密度 N ( x ∣ μ k , Σ k ) \mathcal N(x|\mu_k,\Sigma_k) N(xμk,Σk) 被称为混个高斯分布的一个成分,并且有自己的均值和协方差 μ k , Σ k \mu_k,\Sigma_k μkΣk π k \pi_k πk 被称为混合系数,可以得到: ∑ k = 1 K π k = 1 \sum_{k=1}^{K}\pi_k=1 k=1Kπk=1
根据概率的加和规则和乘积规则,边缘概率密度为: p ( x ) = ∑ k = 1 K p ( k ) p ( x ∣ k ) p(x)=\sum_{k=1}^{K}p(k)p(x|k) p(x)=k=1Kp(k)p(xk)
这和上面的混合高斯分布公式是等价的,把 π k = p ( k ) \pi_k=p(k) πk=p(k) 看成第 k k k个成分的先验概率,把密度 N ( x ∣ μ k , Σ k ) = p ( x ∣ k ) \mathcal N(x|\mu_k,\Sigma_k)=p(x|k) N(xμk,Σk)=p(xk) 看成以 k k k为条件的 x x x的概率。
后验概率 p ( k ∣ x ) = p ( k ) p ( x ∣ k ) Σ l p ( l ) p ( x ∣ l ) = π k N ( x ∣ μ k , Σ k ) Σ l π l N ( x ∣ μ l , Σ l ) p(k|x)=\frac{p(k)p(x|k)}{\Sigma_lp(l)p(x|l)}=\frac{\pi_k\mathcal N(x|\mu_k,\Sigma_k)}{\Sigma_l\pi_l\mathcal N(x|\mu_l,\Sigma_l)} p(kx)=Σlp(l)p(xl)p(k)p(xk)=ΣlπlN(xμl,Σl)πkN(xμk,Σk)

π ≡ { π 1 , . . . , π K } , μ ≡ { μ 1 , . . . , μ K } , Σ ≡ { Σ 1 , . . . , Σ K } \pi\equiv\{\pi_1,...,\pi_K\},\mu\equiv\{\mu_1,...,\mu_K\},\Sigma\equiv\{\Sigma_1,...,\Sigma_K\} π{π1,...,πK},μ{μ1,...,μK},Σ{Σ1,...,ΣK} ,对数似然函数为:
l n   p ( X ∣ π , μ , Σ ) = ∑ n = 1 N l n { x ∑ k = 1 K π k   N ( x n ∣ μ k , Σ k ) } , X = { x 1 , . . . , x N } ln\ p(X|\pi,\mu,\Sigma)=\sum_{n=1}^{N}ln\left\{ x\sum_{k=1}^{K}\pi_k\ \mathcal N(x_n|\mu_k,\Sigma_k)\right\} ,X=\{x_1,...,x_N\} ln p(Xπ,μ,Σ)=n=1Nln{xk=1Kπk N(xnμk,Σk)}X={x1,...,xN}

因为该对数似然函数中对数里含有求和式,不能像一元高斯分布那样可以求得封闭的解析解,可以通过迭代数值优化方法以及期望最大化方法来求解。


References

多元高斯分布完全解析 -知乎
高斯分布相乘、积分整理
多维高斯分布 -博客园
多维正态分布的最大似然估计 -博客园
高斯性质:多元统计分析第01讲–多元正态分布及参数估计(随机向量,多元正态分布定义,条件分布和独立性)-知乎
高斯条件分布:多元统计分析第02讲(条件分布,随机阵的正态分布,参数估计)

Sum of normally distributed random variables
第三章·随机向量 ----概率论与数理统计

汇总型
prml -gitbook
Gaussian Processes for Machine Learning.pdf

  • 3
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值