数理基础知识

大数定律

期望方差

x为连续随机变量,其概率密度函数为 f x ( x ) f_x(x) fx(x),x的期望值为:
E [ x ] = ∫ − ∞ ∞ x f x ( x ) d x E[x]= \int_{-\infty}^{\infty} xf_x(x)dx E[x]=xfx(x)dx
g为一个函数,g(x)的期望值为
E [ g ( x ) ] = ∫ − ∞ ∞ g ( x ) f x ( x ) d x E[g(x)] = \int_{-\infty}^{\infty}g(x)f_x(x)dx E[g(x)]=g(x)fx(x)dx

经常E会有下标,代表了期望值是对应下标分布的随机变量上计算得出的。比如
E x ∼ f x ( x ) [ h ( x , y ) ] = ∫ − ∞ ∞ h ( x , y ) f x ( x ) d x E_{x\sim f_x(x)}[h(x, y)] = \int_{-\infty}^{\infty}h(x, y)f_x(x)dx Exfx(x)[h(x,y)]=h(x,y)fx(x)dx

常见分布

伯努利分布

又名两点分布或者01分布,是一个离散型概率分布。记其成功概率为 p p p( 0 ≤ p ≤ 1 0\leq p\leq1 0p1),则:
其概率质量函数为
f x ( x ) = p x ( 1 − p ) 1 − x = { p ( x = 1 ) 1 − p ( x = 0 ) f_x(x)=p^x(1-p)^{1-x}=\left\{ \begin{aligned} p \quad \quad (x= 1) \\ 1-p \quad \quad (x= 0)\\ \end{aligned} \right. fx(x)=px(1p)1x={p(x=1)1p(x=0)
期望为 p p p,方差为 p ( 1 − p ) p(1-p) p(1p)

泊松分布

Poisson分布,是一个离散概率分布,适合于描述单位时间内随机事件发生次数的概率分布。
概率质量函数为:
p ( X = k ) = e − λ λ k k ! p(X=k) = \frac{e^{-\lambda}\lambda^k}{k!} p(X=k)=k!eλλk
期望为 λ \lambda λ, 方差为 λ \sqrt{\lambda} λ

高斯分布

一维高斯分布:
f x ( x ) = 1 2 π σ 2 e − ( x − μ ) 2 2 σ 2 f_x(x) = \frac{1}{\sqrt{2\pi\sigma^2}}e^{-\frac{(x-\mu)^2}{2\sigma^2}} fx(x)=2πσ2 1e2σ2(xμ)2

多元高斯分布:
f x ( x ) = 1 ( 2 π ) n / 2 ∣ Σ ∣ 1 / 2 e x p [ − 1 2 ( x − μ ) T Σ − 1 ( x − μ ) ] f_x(x) = \frac{1}{(2\pi)^{n/2}|\Sigma|^{1/2}} exp[-\frac{1}{2}(x-\mu)^T\Sigma^{-1}(x-\mu)] fx(x)=(2π)n/2∣Σ1/21exp[21(xμ)TΣ1(xμ)]
μ ∈ R n × 1 \mu \in R^{n\times 1} μRn×1, Σ ∈ R n × n \Sigma \in R^{n\times n} ΣRn×n, ∣ Σ ∣ |\Sigma| ∣Σ∣为求协方差矩阵的det。

服从一维高斯分布的随机变量KL散度

两个高斯分布 p ( x ) = N ( μ 1 , σ 1 ) p(x)=N(\mu_1, \sigma_1) p(x)=N(μ1,σ1) q ( x ) = N ( μ 2 , σ 2 ) q(x)=N(\mu_2, \sigma_2) q(x)=N(μ2,σ2)
D K L ( p , q ) = ∫ p ( x ) l o g p ( x ) q ( x ) d x = ∫ p ( x ) [ l o g p ( x ) − l o g q ( x ) ] d x \begin{aligned} D_{KL}(p, q) &= \int p(x)log\frac{p(x)}{q(x)}dx \\ &= \int p(x)[logp(x) - logq(x)]dx \\ \end{aligned} DKL(p,q)=p(x)logq(x)p(x)dx=p(x)[logp(x)logq(x)]dx

∫ p ( x ) l o g p ( x ) d x = ∫ p ( x ) l o g [ 1 2 π σ 1 2 e x p ( − ( x − μ 1 ) 2 2 σ 1 2 ) ] d x = − 1 2 l o g ( 2 π σ 1 2 ) + ∫ p ( x ) ( − ( x − μ 1 ) 2 2 σ 1 2 ) d x = − 1 2 l o g ( 2 π σ 1 2 ) − ∫ p ( x ) x 2 d x − ∫ p ( x ) 2 x μ 1 d x + ∫ p ( x ) μ 1 2 d x 2 σ 1 2 = − 1 2 l o g ( 2 π σ 1 2 ) − μ 1 2 + σ 1 2 − 2 μ 1 2 + μ 1 2 2 σ 1 2 = − 1 2 [ 1 + l o g ( 2 π σ 1 2 ) ] \begin{aligned} \int p(x)logp(x)dx &= \int p(x) log[\frac{1}{\sqrt{2\pi\sigma_1^2}}exp({-\frac{(x-\mu_1)^2}{2\sigma_1^2}})]dx \\ &= -\frac{1}{2}log(2\pi\sigma_1^2) + \int p(x)({-\frac{(x-\mu_1)^2}{2\sigma_1^2}})dx \\ &= -\frac{1}{2}log(2\pi\sigma_1^2) - \frac{\int p(x)x^2dx - \int p(x)2x\mu_1dx + \int p(x)\mu_1^2dx}{2\sigma_1^2} \\ &= -\frac{1}{2}log(2\pi\sigma_1^2) - \frac{\mu_1^2 + \sigma_1^2 - 2\mu_1^2 + \mu_1^2}{2\sigma_1^2} \\ &= -\frac{1}{2}[1 + log(2\pi\sigma_1^2)] \end{aligned} p(x)logp(x)dx=p(x)log[2πσ12 1exp(2σ12(xμ1)2)]dx=21log(2πσ12)+p(x)(2σ12(xμ1)2)dx=21log(2πσ12)2σ12p(x)x2dxp(x)2xμ1dx+p(x)μ12dx=21log(2πσ12)2σ12μ12+σ122μ12+μ12=21[1+log(2πσ12)]

∫ p ( x ) l o g q ( x ) d x = ∫ p ( x ) l o g [ 1 2 π σ 2 2 e x p ( − ( x − μ 2 ) 2 2 σ 2 2 ) ] d x = − 1 2 l o g ( 2 π σ 2 2 ) + ∫ p ( x ) ( − ( x − μ 2 ) 2 2 σ 2 2 ) d x = − 1 2 l o g ( 2 π σ 2 2 ) − ∫ p ( x ) x 2 d x − ∫ p ( x ) 2 x μ 2 d x + ∫ p ( x ) μ 2 2 d x 2 σ 2 2 = − 1 2 l o g ( 2 π σ 2 2 ) − μ 1 2 + σ 1 2 − 2 μ 1 μ 2 + μ 2 2 2 σ 2 2 = − 1 2 l o g ( 2 π σ 2 2 ) − σ 1 2 + ( μ 1 − μ 2 ) 2 2 σ 2 2 \begin{aligned} \int p(x)logq(x)dx &= \int p(x) log[\frac{1}{\sqrt{2\pi\sigma_2^2}}exp({-\frac{(x-\mu_2)^2}{2\sigma_2^2}})]dx \\ &= -\frac{1}{2}log(2\pi\sigma_2^2) + \int p(x)({-\frac{(x-\mu_2)^2}{2\sigma_2^2}})dx \\ &= -\frac{1}{2}log(2\pi\sigma_2^2) - \frac{\int p(x)x^2dx - \int p(x)2x\mu_2dx + \int p(x)\mu_2^2dx}{2\sigma_2^2} \\ &= -\frac{1}{2}log(2\pi\sigma_2^2) - \frac{\mu_1^2 + \sigma_1^2 - 2\mu_1\mu_2 + \mu_2^2}{2\sigma_2^2} \\ &= -\frac{1}{2}log(2\pi\sigma_2^2) - \frac{ \sigma_1^2 + (\mu_1 - \mu_2)^2}{2\sigma_2^2} \\ \end{aligned} p(x)logq(x)dx=p(x)log[2πσ22 1exp(2σ22(xμ2)2)]dx=21log(2πσ22)+p(x)(2σ22(xμ2)2)dx=21log(2πσ22)2σ22p(x)x2dxp(x)2xμ2dx+p(x)μ22dx=21log(2πσ22)2σ22μ12+σ122μ1μ2+μ22=21log(2πσ22)2σ22σ12+(μ1μ2)2

带入可得:
D K L ( p , q ) = ∫ p ( x ) [ l o g p ( x ) − l o g q ( x ) ] d x = − 1 2 [ 1 + l o g ( 2 π σ 1 2 ) ] + 1 2 l o g ( 2 π σ 2 2 ) + σ 1 2 + ( μ 1 − μ 2 ) 2 2 σ 2 2 = l o g ( σ 2 σ 1 ) + σ 1 2 + ( μ 1 − μ 2 ) 2 2 σ 2 2 − 1 2 \begin{aligned} D_{KL}(p, q) &= \int p(x)[logp(x) - logq(x)]dx \\ &= -\frac{1}{2}[1 + log(2\pi\sigma_1^2)] + \frac{1}{2}log(2\pi\sigma_2^2) + \frac{ \sigma_1^2 + (\mu_1 - \mu_2)^2}{2\sigma_2^2} \\ &= log(\frac{\sigma_2}{\sigma_1}) + \frac{\sigma_1^2 + (\mu_1-\mu_2)^2}{2\sigma_2^2} - \frac{1}{2} \end{aligned} DKL(p,q)=p(x)[logp(x)logq(x)]dx=21[1+log(2πσ12)]+21log(2πσ22)+2σ22σ12+(μ1μ2)2=log(σ1σ2)+2σ22σ12+(μ1μ2)221

服从多元高斯分布的随机变量KL散度

与一元高斯分布类似,第一部分:
∫ p ( x ) l o g p ( x ) d x = ∫ p ( x ) l o g [ 1 ( 2 π ) n / 2 ∣ Σ 1 ∣ 1 / 2 e x p [ − 1 2 ( x − μ 1 ) T Σ 1 − 1 ( x − μ 1 ) ] ] d x = l o g 1 ( 2 π ) n / 2 ∣ Σ 1 ∣ 1 / 2 + ∫ p ( x ) [ − 1 2 ( x − μ 1 ) T Σ 1 − 1 ( x − μ 1 ) ] d x = l o g 1 ( 2 π ) n / 2 ∣ Σ 1 ∣ 1 / 2 − 1 2 E x ∼ p ( x ) [ ( x − μ 1 ) T Σ 1 − 1 ( x − μ 1 ) ] \begin{aligned} \int p(x)logp(x)dx &= \int p(x) log[\frac{1}{(2\pi)^{n/2}|\Sigma_1|^{1/2}} exp[-\frac{1}{2}(x-\mu_1)^T\Sigma_1^{-1}(x-\mu_1)]] dx\\ &= log\frac{1}{(2\pi)^{n/2}|\Sigma_1|^{1/2}} + \int p(x) [-\frac{1}{2}(x-\mu_1)^T\Sigma_1^{-1}(x-\mu_1)]dx\\ &= log\frac{1}{(2\pi)^{n/2}|\Sigma_1|^{1/2}} -\frac{1}{2}E_{x\sim p(x)}[(x-\mu_1)^T\Sigma_1^{-1}(x-\mu_1)] \end{aligned} p(x)logp(x)dx=p(x)log[(2π)n/2Σ11/21exp[21(xμ1)TΣ11(xμ1)]]dx=log(2π)n/2Σ11/21+p(x)[21(xμ1)TΣ11(xμ1)]dx=log(2π)n/2Σ11/2121Exp(x)[(xμ1)TΣ11(xμ1)]
第二部分同理可得:
∫ p ( x ) l o g q ( x ) d x = l o g 1 ( 2 π ) n / 2 ∣ Σ 2 ∣ 1 / 2 − 1 2 E x ∼ p ( x ) [ ( x − μ 2 ) T Σ 2 − 1 ( x − μ 2 ) ] \begin{aligned} \int p(x)logq(x)dx &= log\frac{1}{(2\pi)^{n/2}|\Sigma_2|^{1/2}} -\frac{1}{2}E_{x\sim p(x)}[(x-\mu_2)^T\Sigma_2^{-1}(x-\mu_2)]\\ \end{aligned} p(x)logq(x)dx=log(2π)n/2Σ21/2121Exp(x)[(xμ2)TΣ21(xμ2)]

带入可得:
D K L ( p , q ) = ∫ p ( x ) [ l o g p ( x ) − l o g q ( x ) ] d x = 1 2 l o g ∣ Σ 2 ∣ ∣ Σ 1 ∣ + 1 2 E x ∼ p ( x ) [ ( x − μ 2 ) T Σ 2 − 1 ( x − μ 2 ) − ( x − μ 1 ) T Σ 1 − 1 ( x − μ 1 ) ] \begin{aligned} D_{KL}(p, q) &= \int p(x)[logp(x) - logq(x)]dx \\ &= \frac{1}{2}log\frac{|\Sigma_2|}{|\Sigma_1|} + \frac{1}{2}E_{x\sim p(x)} [(x-\mu_2)^T\Sigma_2^{-1}(x-\mu_2) - (x-\mu_1)^T\Sigma_1^{-1}(x-\mu_1)] \end{aligned} DKL(p,q)=p(x)[logp(x)logq(x)]dx=21logΣ1Σ2+21Exp(x)[(xμ2)TΣ21(xμ2)(xμ1)TΣ11(xμ1)]

多元正态分布下期望矩阵化的表示结果:
E [ x T A x ] = t r ( A Σ ) + μ T A μ E[x^TAx] = tr(A\Sigma) + \mu^TA\mu E[xTAx]=tr(AΣ)+μTAμ
证明过程如下:
E [ x T A x ] = E [ t r ( x T A x ) ] = E [ t r ( A x x T ) ] = t r [ E ( A x x T ) ] = t r [ A ⋅ E ( x x T ) ] = t r [ A ( Σ + μ μ T ) ] = t r ( A Σ ) + t r ( A μ μ T ) = t r ( A Σ ) + t r ( μ T A μ ) = t r ( A Σ ) + μ T A μ \begin{aligned} E[x^TAx] = E[tr(x^TAx)] = E[tr(Axx^T)] = tr[E(Axx^T)] &= tr[A\cdot E(xx^T)] \\ &= tr[A(\Sigma + \mu\mu^T)] \\ &= tr(A\Sigma) + tr(A\mu\mu^T) \\ &= tr(A\Sigma) + tr(\mu^TA\mu) \\ & = tr(A\Sigma) + \mu^TA\mu \end{aligned} E[xTAx]=E[tr(xTAx)]=E[tr(AxxT)]=tr[E(AxxT)]=tr[AE(xxT)]=tr[A(Σ+μμT)]=tr(AΣ)+tr(AμμT)=tr(AΣ)+tr(μTAμ)=tr(AΣ)+μTAμ
整个证明过程用到了如下性质:

  1. x T A x x^TAx xTAx是个标量,因此 x T A x = t r ( x T A x ) = t r ( A x x T ) x^TAx=tr(x^TAx)=tr(Axx^T) xTAx=tr(xTAx)=tr(AxxT)
  2. Σ = E [ ( x − μ ) ( x − μ ) T ] = E [ x x T − x μ T − μ x T − μ μ T ] = E ( x x T ) − μ μ T \Sigma=E[(x-\mu)(x-\mu)^T] = E[xx^T-x\mu^T-\mu x^T-\mu\mu^T]=E(xx^T)-\mu\mu^T Σ=E[(xμ)(xμ)T]=E[xxTxμTμxTμμT]=E(xxT)μμT

进一步带入可得:
D K L ( p , q ) = 1 2 l o g ∣ Σ 2 ∣ ∣ Σ 1 ∣ + 1 2 E x ∼ p ( x ) [ ( x − μ 2 ) T Σ 2 − 1 ( x − μ 2 ) − ( x − μ 1 ) T Σ 1 − 1 ( x − μ 1 ) ] = 1 2 l o g ∣ Σ 2 ∣ ∣ Σ 1 ∣ + 1 2 t r ( Σ 2 − 1 Σ 1 ) + ( μ 1 − μ 2 ) T Σ 2 − 1 ( μ 1 − μ 2 ) T − 1 2 t r ( Σ 1 − 1 Σ 1 ) − ( μ 1 − μ 1 ) T Σ 2 − 1 ( μ 1 − μ 1 ) T = 1 2 l o g ∣ Σ 2 ∣ ∣ Σ 1 ∣ + 1 2 t r ( Σ 2 − 1 Σ 1 ) + ( μ 1 − μ 2 ) T Σ 2 − 1 ( μ 1 − μ 2 ) T − 1 2 n \begin{aligned} D_{KL}(p, q) &= \frac{1}{2}log\frac{|\Sigma_2|}{|\Sigma_1|} + \frac{1}{2}E_{x\sim p(x)} [(x-\mu_2)^T\Sigma_2^{-1}(x-\mu_2) - (x-\mu_1)^T\Sigma_1^{-1}(x-\mu_1)]\\ &= \frac{1}{2}log\frac{|\Sigma_2|}{|\Sigma_1|} + \frac{1}{2}tr(\Sigma_2^{-1}\Sigma_1) + (\mu_1 - \mu_2)^T\Sigma_2^{-1}(\mu_1-\mu_2)^T - \frac{1}{2}tr(\Sigma_1^{-1}\Sigma_1) - (\mu_1-\mu_1)^T\Sigma_2^{-1}(\mu_1-\mu_1)^T \\ &= \frac{1}{2}log\frac{|\Sigma_2|}{|\Sigma_1|} + \frac{1}{2}tr(\Sigma_2^{-1}\Sigma_1) + (\mu_1 - \mu_2)^T\Sigma_2^{-1}(\mu_1-\mu_2)^T -\frac{1}{2}n \end{aligned} DKL(p,q)=21logΣ1Σ2+21Exp(x)[(xμ2)TΣ21(xμ2)(xμ1)TΣ11(xμ1)]=21logΣ1Σ2+21tr(Σ21Σ1)+(μ1μ2)TΣ21(μ1μ2)T21tr(Σ11Σ1)(μ1μ1)TΣ21(μ1μ1)T=21logΣ1Σ2+21tr(Σ21Σ1)+(μ1μ2)TΣ21(μ1μ2)T21n

进一步延伸到VAE的训练过程,假设 p ( x ) = N ( μ 1 , σ 1 ) p(x)=N(\mu_1, \sigma_1) p(x)=N(μ1,σ1)为encoder估计出的隐变量 z z z概率分布的参数, q ( x ) = N ( μ 2 , σ 2 ) = ( 0 , I ) q(x)=N(\mu_2, \sigma_2)=(0, I) q(x)=N(μ2,σ2)=(0,I)为隐变量 z z z的先验分布。我们希望对学习到的隐变量分布进行约束,使其符合标准高斯分布,方便后续采样生成。则有:
K L ( p , q ) = K L ( N ( μ 1 , σ 1 ) , N ( 0 , I ) ) = − l o g σ 1 + 1 2 ( σ 1 2 + μ 1 2 ) − 1 2 KL(p, q) = KL(N(\mu_1, \sigma_1), N(0, I)) = -log\sigma_1 + \frac{1}{2}(\sigma_1^2 + \mu_1^2) - \frac{1}{2} KL(p,q)=KL(N(μ1,σ1),N(0,I))=logσ1+21(σ12+μ12)21

拉普拉斯分布

f x ( x ) = 1 2 b e − ∣ x − μ ∣ b f_x(x) = \frac{1}{2b}e^{-\frac{|x-\mu|}{b}} fx(x)=2b1ebxμ
μ \mu μ是位置参数, b b b是尺度参数。
在这里插入图片描述

我们在统计学和机器学习中,根据具体情况来选择合适的概率分布模型来描述数据的分布情况。在某些情况下,我们假设数据分布服从拉普拉斯分布,而在其他情况下,我们则假设数据分布服从高斯分布。

拉普拉斯分布(Laplace Distribution)在描述数据分布时通常用于处理具有尖峰和厚尾的数据。它的概率密度函数有两个参数:位置参数(μ)和尺度参数(b)。拉普拉斯分布的形状类似于高斯分布,但它的尾部更厚,因此适用于对异常值或离群点比较敏感的情况。例如,在异常检测、稀疏建模和噪声建模等领域中常使用拉普拉斯分布。

高斯分布(Gaussian Distribution),也称为正态分布,是最常见的概率分布之一,广泛应用于统计学和自然科学中。高斯分布的概率密度函数由两个参数确定:均值(μ)和方差(σ²)。高斯分布的形状呈钟形曲线,对称分布,它适用于许多自然现象的建模,如测量误差、随机噪声和人群身高等。

选择使用拉普拉斯分布还是高斯分布取决于数据的特性和具体问题的需求。如果数据中存在离群点或异常值,并且我们对这些异常值比较敏感,那么可以考虑使用拉普拉斯分布。而如果数据相对较为集中且对异常值不敏感,那么高斯分布可能更适合。然而,这只是一种常见的假设,并不意味着所有情况下都适用。在实际应用中,我们常常需要通过对数据进行分析和模型选择,来判断使用哪种分布更符合实际情况。

Gibbs不等式

∑ i = 1 n p i = ∑ i = 1 n q i = 1 \sum_{i=1}^np_i=\sum_{i=1}^nq_i=1 i=1npi=i=1nqi=1,且 p i , q i ∈ ( 0 , 1 ] p_i, q_i \in (0, 1] pi,qi(0,1],则有:
− ∑ i n p i l o g p i ≤ − ∑ i n p i l o g q i -\sum_i^np_ilogp_i\leq -\sum_i^n p_ilogq_i inpilogpiinpilogqi
当且仅当 p i = q i , ∀ i p_i=q_i, \forall i pi=qi,i时,等号成立。

凸函数

convex function,是指函数图形上,任意两点连成的线段,皆位于图形的上方的实值函数。如单变的二次函数和指数函数。快速判断就是函数图形开口向上。

Jensen不等式

如果x是随机变量,f是凸函数,则有如下性质,称之为Jensen’s inequality(詹森不等式/琴生不等式)。
f ( E ( x ) ) ≤ E [ f ( x ) ] f(E(x)) \leq E[f(x)] f(E(x))E[f(x)]
ELBO证明中会用到对数似然,这里延伸下log(x)函数是凹函数,-log(x)是凸函数。则有:
l o g ( E ( x ) ) ≥ E [ l o g ( x ) ] log(E(x)) \geq E[log(x)] log(E(x))E[log(x)]

似然函数

likelihood function,译为似然函数。是一种关于统计模型中参数的函数,表示模型参数的似然性。假设随机变量x的概率密度函数为 f ( x ∣ θ ) f(x|\theta) f(xθ),样本集D上有m个样本,则D上的似然函数写作 L ( θ ∣ x ) = ∏ i m f ( x i ∣ θ ) L(\theta|x)= \prod_i^mf(x_i|\theta) L(θx)=imf(xiθ)

为什么要用对数似然

  1. p ( x ) p(x) p(x)取对数不影响单调性。
  2. 减少计算量。似然函数是每个数据点概率的连乘。取对数可以将连乘化为连加,同时如果概率分布中含有指数项,比如高斯分布,也能将指数项化为求和形式,进一步减少计算量。
  3. 利于结果更好的计算。因为概率在[0, 1]之间,因此概率连乘会变为一个很小的值,甚至可能会引起浮点数下溢,尤其是当数据集很大时,联合概率趋向于0,非常不利于计算。

泰勒近似

泰勒公式:
f ( x ) = f ( x 0 ) + f ′ ( x 0 ) ( x − x 0 ) + f ′ ′ ( x 0 ) 2 ! ( x − x 0 ) 2 + . . . + f n ( x 0 ) n ! ( x − x 0 ) n + o ( ( x − x 0 ) n ) f(x) = f(x_0) + f^{'}(x_0)(x-x_0) + \frac{f^{''}(x_0)}{2!}(x-x_0)^2 + ... + \frac{f^{n}(x_0)}{n!}(x-x_0)^n + o((x-x_0)^n) f(x)=f(x0)+f(x0)(xx0)+2!f′′(x0)(xx0)2+...+n!fn(x0)(xx0)n+o((xx0)n)
麦克劳林公式(泰勒公式的特殊形式,在零点展开):
f ( x ) = f ( 0 ) + f ′ ( 0 ) ( x ) + f ′ ′ ( 0 ) 2 ! x 2 + . . . + f n ( 0 ) n ! x n + o ( x n ) f(x) = f(0) + f^{'}(0)(x) + \frac{f^{''}(0)}{2!}x^2 + ... + \frac{f^{n}(0)}{n!}x^n + o(x^n) f(x)=f(0)+f(0)(x)+2!f′′(0)x2+...+n!fn(0)xn+o(xn)
常见函数的麦克劳林展开:
e x = 1 + x + 1 2 ! x 2 + 1 3 ! x 3 + o ( x 3 ) e^x = 1 + x + \frac{1}{2!}x^2 + \frac{1}{3!}x^3 + o(x^3) ex=1+x+2!1x2+3!1x3+o(x3)
l n ( 1 + x ) = x − 1 2 ! x 2 + 1 3 ! x 3 + o ( x 3 ) ln(1+x) = x - \frac{1}{2!}x^2 + \frac{1}{3!}x^3 + o(x^3) ln(1+x)=x2!1x2+3!1x3+o(x3)
s i n ( x ) = x − 1 3 ! x 3 + 1 5 ! x 5 + o ( x 5 ) sin(x) = x - \frac{1}{3!}x^3 + \frac{1}{5!}x^5 + o(x^5) sin(x)=x3!1x3+5!1x5+o(x5)
c o s ( x ) = x − 1 2 ! x 2 + 1 4 ! x 4 + o ( x 4 ) cos(x) = x - \frac{1}{2!}x^2 + \frac{1}{4!}x^4 + o(x^4) cos(x)=x2!1x2+4!1x4+o(x4)
( 1 + x ) α = 1 + α 1 ! x + α ( α − 1 ) 2 ! x 2 + α ( α − 1 ) ( α − 2 ) 3 ! x 3 + o ( x 3 ) (1+x)^{\alpha} = 1 + \frac{\alpha}{1!}x + \frac{\alpha(\alpha-1)}{2!}x^2 + \frac{\alpha(\alpha-1)(\alpha-2)}{3!}x^3 + o(x^3) (1+x)α=1+1!αx+2!α(α1)x2+3!α(α1)(α2)x3+o(x3)
正常近似取到一阶或者二阶项即可。

信息论

信息量

− l o g ( p ( X = x ) ) -log(p(X=x)) log(p(X=x))表示一个概率事件或者随机变量X取值x时的信息量。 p ( X = x ) p(X=x) p(X=x)为取值为x的概率。
信息量的单位随着计算公式中 l o g log log运算的底数而变化, l o g log log底数为2时单位为比特(bit),log底数为e时,单位为奈特(nat)。

信息熵

信息熵就是期望信息量,即对于一个信号系统来说,对于每次的信号,在平均意义上为了编码这个信号需要使用的信息量。在一个信号系统中,信息熵最大的时候是当每个信号概率相等的时候。通过大数定律可知,信息熵是编码一个信号系统所需信息量多理论下界。
h ( x ) = − ∑ x ∈ X p ( x ) l o g p ( x ) h(x) = - \sum_{x\in X} p(x)logp(x) h(x)=xXp(x)logp(x)

KL散度

全名Kullback-Leible散度,又称相对熵。用以衡量两个分布之间的距离, D K L ( p , q ) D_{KL}(p, q) DKL(p,q)表示真实分布为 p p p时,度量近似分布 q q q和真实分布之间的差异程度。

连续随机变量的KL散度:
D K L ( p ∣ ∣ q ) = E x ∼ p [ l o g p ( x ) q ( x ) ] = ∫ p ( x ) l o g p ( x ) q ( x ) d x D_{KL}(p||q) = E_{x\sim p}[log\frac{p(x)}{q(x)}]=\int p(x)log\frac{p(x)}{q(x)} dx DKL(p∣∣q)=Exp[logq(x)p(x)]=p(x)logq(x)p(x)dx
离散随机变量的KL散度:
D K L ( p ∣ ∣ q ) = E x ∼ p [ l o g p ( x ) q ( x ) ] = ∑ x ∈ X p ( x ) l o g p ( x ) q ( x ) D_{KL}(p||q) = E_{x\sim p}[log\frac{p(x)}{q(x)}]=\sum_{x\in X}p(x)log\frac{p(x)}{q(x)} DKL(p∣∣q)=Exp[logq(x)p(x)]=xXp(x)logq(x)p(x)

KL散度有如下特性:

  1. 不对称性: D K L ( p ∣ ∣ q ) ≠ D K L ( q ∣ ∣ p ) D_{KL}(p||q) \neq D_{KL}(q||p) DKL(p∣∣q)=DKL(q∣∣p)
  2. 非负性: D K L ( p ∣ ∣ q ) ≥ 0 D_{KL}(p||q)\geq0 DKL(p∣∣q)0

JS散度

Jensen-Shanno散度,是对称的。

交叉熵

交叉熵定义如下:
H ( p , q ) = E x ∼ p [ − l o g q ( x ) ] H(p, q) = E_{x\sim p}[-logq(x)] H(p,q)=Exp[logq(x)]
离散随机变量的交叉熵形式如下:
H ( p , q ) = E x ∼ p [ − l o g q ( x ) ] = − ∑ x ∈ X p ( x ) l o g q ( x ) H(p, q) = E_{x\sim p}[-logq(x)] = -\sum_{x\in X}p(x)logq(x) H(p,q)=Exp[logq(x)]=xXp(x)logq(x)
连续随机变量的交叉熵形式如下:
H ( p , q ) = E x ∼ p [ − l o g q ( x ) ] = ∫ p ( x ) l o g q ( x ) d x H(p, q) = E_{x\sim p}[-logq(x)] = \int p(x)logq(x)dx H(p,q)=Exp[logq(x)]=p(x)logq(x)dx

交叉熵可由相对熵推导得到:
D K L ( p ∣ ∣ q ) = E x ∼ p [ l o g p ( x ) q ( x ) ] = ∑ x ∈ X p ( x ) l o g p ( x ) q ( x ) = ∑ x ∈ X p ( x ) l o g p ( x ) − ∑ x ∈ X p ( x ) l o g q ( x ) = − H ( p ) + H ( p , q ) \begin{aligned} D_{KL}(p||q) = E_{x\sim p}[log\frac{p(x)}{q(x)}]&=\sum_{x\in X}p(x)log\frac{p(x)}{q(x)} \\ &=\sum_{x\in X}p(x)logp(x) - \sum_{x\in X}p(x)logq(x) \\ &=-H(p) + H(p, q) \end{aligned} DKL(p∣∣q)=Exp[logq(x)p(x)]=xXp(x)logq(x)p(x)=xXp(x)logp(x)xXp(x)logq(x)=H(p)+H(p,q)
H ( p ) H(p) H(p)为真实分布的信息熵,不影响模型参数优化。因此模型优化过程中,可以直接用交叉熵 H ( p , q H(p, q H(p,q作为目标函数。

对于交叉熵,可以有个直观的解释:数据集服从真实分布 p p p,从数据集中抽取样本 x x x,该样本被抽到的概率为 p ( x ) p(x) p(x),如果用近似分布 q q q去编码该样本,需要用到的信息量为 − l o g q ( x ) -logq(x) logq(x)。对整个数据集求期望,当近似分布的参数优化至 H ( p , q ) = H ( p ) H(p, q)=H(p) H(p,q)=H(p)时,可以认为近似分布 q ( x ) q(x) q(x)已优化至和真实分布 p ( x ) p(x) p(x)一致。

Wiener Process

维纳过程,又称为布朗运动,它是一种连续时间,连续状态的独立增量过程,其增量服从正态分布 N ∼ ( 0 , Δ t ) N\sim(0, \Delta t) N(0,Δt)。可以用以下公式来表示维纳过程:
W ( t ) = t Z W(t) = \sqrt{t} Z W(t)=t Z
其中 Z Z Z是一个标准正态分布随机变量,t表示时间。对于维纳过程,我们可以证明其具有如下性质:

  1. W ( 0 ) W(0) W(0) = 0。
  2. W ( t ) W(t) W(t)是一个连续的随机变量。
  3. W ( t ) W(t) W(t)具有独立增量:对于任意 0 ≤ t 1 < t 2 < . . . < t n 0\leq t_1 < t_2 <...<t_n 0t1<t2<...<tn,其增量 W ( t i + 1 ) W(t_{i+1}) W(ti+1) - W ( t i ) W(t_{i}) W(ti)相互独立。
  4. 增量服从正态分布:对于任意 0 ≤ s < t 0\leq s < t 0s<t,其增量 W ( t ) W(t) W(t) - W ( s ) W(s) W(s)服从 N ∼ ( 0 , t − s ) N\sim(0, t-s) N(0,ts)的正态分布。

SDE

Applied Stochastic Differential Equations
随机微分方程最泛化的表达形式:
d x = f ( x , t ) d t + L ( x , t ) d w dx = f(x, t)dt + L(x, t)dw dx=f(x,t)dt+L(x,t)dw
f ( x , t ) f(x, t) f(x,t)为drift函数,决定了系统的nominal dynamics, L ( x , t ) L(x, t) L(x,t)是扩散矩阵,决定了噪声如何进入系统。 w w w为布朗运动。

其均值和方差可表示为:
d m d t = E [ f ( x , t ) ] \frac{dm}{dt} = E[f(x, t)] dtdm=E[f(x,t)]
d P d t = E [ f ( x , t ) ( x − m ) T ] + E [ ( x − m ) f T ( x , t ) ] + E [ L ( x , t ) Q L T ( x , t ) ] \frac{dP}{dt} = E[f(x, t)(x-m)^T] + E[(x-m)f^T(x, t)] + E[L(x, t)QL^T(x, t)] dtdP=E[f(x,t)(xm)T]+E[(xm)fT(x,t)]+E[L(x,t)QLT(x,t)]
具体可见上书的公式5.51。

  • 18
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值