数学基础-概率论与随机过程

敲公式太累了!!!!!!

概率论与随机过程

绪论

为什么采用概率论

在机器学习当中,算法必须总是处理不确定量以及随机量,同时硬件中的错误也会经常发生。不确定性的来源有三个:

  1. 系统的固有不确定性被建模包含。例如,大多数的量子力学将亚原子的运动描述为不确定性的。
  2. 不可完全观测。即使是确定性系统也会表现出随机性,因为我们肯能不能观察到所有的驱动这个系统的变量。在Monty Hall问题中,输出结果已经给定了,但是对于contestant来讲,输出却是不确定的,有点类似于薛定谔的猫。
  3. 不完整的建模。例如在机器人中,为了估计机器人的位置从而离散空间,这样就没有办法精确的知道objects的位置。
    在很多情况下,一个简单的不确定的系统比复杂的确定的系统更好用。需要指出的一点是,虽然我们想找到一种描述不确定的方法,但是概率论并没所有我们需要的所有工具。概率论最先是用来研究事物发生的频率的,通常是对于可重复事件,重复多次,就会发生那么多次,例如概率为p,可能会有p次发生。但是对于举出的医生的例子,认为flu的概率是40%,这里就是指的置信度的概念(degree of belief)。前一种被称作为频率论的概率论Frequentist probability,后一种用来衡量不确定性水平的被称作为贝叶斯概率论(Bayesian probability)。

随机变量

A random variable is a variable that can take on different values randomly.

概率分布

  • 离散随机变量和概率质量分布函数

  • 连续变量和概率密度函数

  • 边际概率分布

  • 条件概率分布

  • 条件概率的链式法则

  • 独立事件和条件独立事件

  • 期望、方差、协方差

    常见的概率分布

  • Bernoulli Distribution 伯努利分布

  • Multinoulli Distribution 绝对分布

  • Gaussian Distribution 正态分布

  • Exponential and Laplace Distributions 指数分布和拉普拉斯分布

  • The Dirac Distribution and Empirical Distribution 狄拉克分布和经验分布

  • Mixtures of Distributions 混合分布

    一些有用的函数

  • logistics sigmoid

  • softplus function

    贝叶斯规则

主要是和条件概率相关的一些事情

连续变量的技术细节

并没有仔细看这一章,应该是连续变量和离散变量之间的区别(以后修正)

Information Theory

信息理论是应用数学的一个分支,主要是来围绕着定量的分析a signal中包含了多少信息。最开始是用来研究通过噪声通道发送离散字母的信息发送问题,例如通过无线电的通信。在这个context中,信息论能告诉我们怎么就优化编码,计算预期的消息长度并从特定采样的概率分布使用不同的编码方案,在机器学习当中,可以将信息论应用于连续变量,消息的长度解释(message length interpretations)并未应用于这些变量的情况下
采用这种正式的直觉(intuition)

  • 相似的事件拥有较少的信息量,在极端情况下,事件确定发生的情况,应该不包含
  • 相似度小的事情应该拥有更高的信息量
  • 独立事件应该有附加信息

为了满足这三个性质,所以呢定义了self-information I(X)=-LogP(x)(自信息(英语:self-information),又译为信息本体,由克劳德·香农提出,用来衡量单一事件发生时所包含的信息量多寡)。用nat作为单位,1nat就是观测可能性为1/e的事件所包含的信息量。可以用Shannon entropy(香农熵)来衡量概率分布当中的不确定性大小。当变量是连续变量时,香龙熵就变成了(differencial entropy)微分熵。如果说遇到了两个分布,那么用Kullback-Leibler (KL) divergence来衡量两个分布之间的不同。

Structured Probabilistic Models-结构化的概率模型

机器学习通常涉及非常大量的随机变量的概率分布。通常,这些概率分布会涉及相对较少变量的直接相互作用。采用一个单一的函数来描述整个联合概率分布式非常有效的(不论是计算效率还是统计效率)。当我们用一个graph来表征概率分布的factorization,就可以称之为structured probabilistic model 结构化概率模型 or graphical model 图论模型。结构概率模型分为两种:直接和间接。这两种方法都是用一个图,每个图的节点表示一个变量,连接点之间的边表示这两个随机变量之间的直接相关的概率分布。

基础

1.事件的关系与运算

(1) 子事件: A ⊂ B A \subset B AB,若A发生,则B发生。

(2) 相等事件: A = B A = B A=B,即A$ \subset B , 且 ,且 B \subset A $。

(3) 和事件: A ⋃ B A\bigcup B AB(或A + B),A与B中至少有一个发生。

(4) 差事件: A − B A - B AB,A发生但B不发生。

(5) 积事件: A ⋂ B A\bigcap B AB(或{AB}),A与B同时发生。

(6) 互斥事件(互不相容): A ⋂ B = ∅ 。 A\bigcap B=\varnothing。 AB=

(7) 互逆事件(对立事件): A ⋂ B = ∅ , A ⋃ B = Ω , A = B ˉ , B = A ˉ A\bigcap B=\varnothing ,A\bigcup B=\Omega ,A=\bar{B},B=\bar{A} AB=,AB=Ω,A=Bˉ,B=Aˉ

2.运算律 (1) 交换律: A ⋃ B = B ⋃ A , A ⋂ B = B ⋂ A A\bigcup B=B\bigcup A,A\bigcap B=B\bigcap A AB=BA,AB=BA (2) 结合律: ( A ⋃ B ) ⋃ C = A ⋃ ( B ⋃ C ) (A\bigcup B)\bigcup C=A\bigcup (B\bigcup C) (AB)C=A(BC)(3) 分配律: ( A ⋂ B ) ⋂ C = A ⋂ ( B ⋂ C ) (A\bigcap B)\bigcap C=A\bigcap (B\bigcap C) (AB)C=A(BC)

3.德 ⋅ \centerdot 摩根律
A ⋃ B ‾ = A ˉ ⋂ B ˉ A ⋂ B ‾ = A ˉ ⋃ B ˉ \overline{A\bigcup B}=\bar{A}\bigcap \bar{B} \overline{A\bigcap B}=\bar{A}\bigcup \bar{B} AB=AˉBˉAB=AˉBˉ
4.完全事件组

A 1 A 2 ⋯ A n {{A}_{1}}{{A}_{2}}\cdots {{A}_{n}} A1A2An两两互斥,且和事件为必然事件,即KaTeX parse error: Got function '\bigcup' as argument to '\mathop' at position 84: …set{n}{\mathop \̲b̲i̲g̲c̲u̲p̲ ̲}}\,=\Omega

5.概率的基本公式

(1)条件概率: P ( B ∣ A ) = P ( A B ) P ( A ) P(B|A)=\frac{P(AB)}{P(A)} P(BA)=P(A)P(AB),表示A发生的条件下,B发生的概率。

(2)全概率公式: P ( A ) = ∑ i = 1 n P ( A ∣ B i ) P ( B i ) , B i B j = ∅ , i ≠ j , ⋃ n i = 1   B i = Ω P(A)=\sum\limits_{i=1}^{n}{P(A|{{B}_{i}})P({{B}_{i}}),{{B}_{i}}{{B}_{j}}}=\varnothing ,i\ne j,\underset{i=1}{\overset{n}{\mathop{\bigcup }}}\,{{B}_{i}}=\Omega P(A)=i=1nP(ABi)P(Bi),BiBj=,i̸=j,i=1nBi=Ω

(3) Bayes公式:
P ( B j ∣ A ) = P ( A ∣ B j ) P ( B j ) ∑ i = 1 n P ( A ∣ B i ) P ( B i ) , j = 1 , 2 , ⋯   , n P({{B}_{j}}|A)=\frac{P(A|{{B}_{j}})P({{B}_{j}})}{\sum\limits_{i=1}^{n}{P(A|{{B}_{i}})P({{B}_{i}})}},j=1,2,\cdots ,n P(BjA)=i=1nP(ABi)P(Bi)P(ABj)P(Bj),j=1,2,,n
注:上述公式中事件 B i {{B}_{i}} Bi的个数可为可列个。

(4)乘法公式:
P ( A 1 A 2 ) = P ( A 1 ) P ( A 2 ∣ A 1 ) = P ( A 2 ) P ( A 1 ∣ A 2 ) P ( A 1 A 2 ⋯ A n ) = P ( A 1 ) P ( A 2 ∣ A 1 ) P ( A 3 ∣ A 1 A 2 ) ⋯ P ( A n ∣ A 1 A 2 ⋯ A n − 1 ) P({{A}_{1}}{{A}_{2}})=P({{A}_{1}})P({{A}_{2}}|{{A}_{1}})=P({{A}_{2}})P({{A}_{1}}|{{A}_{2}}) P({{A}_{1}}{{A}_{2}}\cdots {{A}_{n}})\\=P({{A}_{1}})P({{A}_{2}}|{{A}_{1}})P({{A}_{3}}|{{A}_{1}}{{A}_{2}})\cdots P({{A}_{n}}|{{A}_{1}}{{A}_{2}}\cdots {{A}_{n-1}}) P(A1A2)=P(A1)P(A2A1)=P(A2)P(A1A2)P(A1A2An)=P(A1)P(A2A1)P(A3A1A2)P(AnA1A2An1)
6.事件的独立性

(1)A与B相互独立 ⇔ P ( A B ) = P ( A ) P ( B ) \Leftrightarrow P(AB)=P(A)P(B) P(AB)=P(A)P(B)

(2)A,B,C两两独立 ⇔ P ( A B ) = P ( A ) P ( B ) ; P ( B C ) = P ( B ) P ( C ) ; P ( A C ) = P ( A ) P ( C ) ; \Leftrightarrow P(AB)=P(A)P(B);P(BC)=P(B)P(C) ;P(AC)=P(A)P(C); P(AB)=P(A)P(B);P(BC)=P(B)P(C);P(AC)=P(A)P(C);

(3)A,B,C相互独立 ⇔ P ( A B ) = P ( A ) P ( B ) ; P ( B C ) = P ( B ) P ( C ) ; P ( A C ) = P ( A ) P ( C ) ; P ( A B C ) = P ( A ) P ( B ) P ( C ) \Leftrightarrow P(AB)=P(A)P(B); P(BC)=P(B)P(C) ; P(AC)=P(A)P(C) ; P(ABC)=P(A)P(B)P(C) P(AB)=P(A)P(B);P(BC)=P(B)P(C);P(AC)=P(A)P(C);P(ABC)=P(A)P(B)P(C)

7.独立重复试验

将某试验独立重复n次,若每次实验中事件A发生的概率为p,则n次试验中A发生k次的概率为: P ( X = k ) = C n k p k ( 1 − p ) n − k P(X=k)=C_{n}^{k}{{p}^{k}}{{(1-p)}^{n-k}} P(X=k)=Cnkpk(1p)nk

8.重要公式与结论

(1) P ( A ˉ ) = 1 − P ( A ) P(\bar{A})=1-P(A) P(Aˉ)=1P(A)

(2) P ( A ⋃ B ) = P ( A ) + P ( B ) − P ( A B ) P ( A ⋃ B ⋃ C ) = P ( A ) + P ( B ) + P ( C ) − P ( A B ) − P ( B C ) − P ( A C ) + P ( A B C ) P(A\bigcup B)=P(A)+P(B)-P(AB) P(A\bigcup B\bigcup C)\\=P(A)+P(B)+P(C)-P(AB)-P(BC)-P(AC)+P(ABC) P(AB)=P(A)+P(B)P(AB)P(ABC)=P(A)+P(B)+P(C)P(AB)P(BC)P(AC)+P(ABC)

(3) P ( A − B ) = P ( A ) − P ( A B ) P(A-B)=P(A)-P(AB) P(AB)=P(A)P(AB)

(4) P ( A B ˉ ) = P ( A ) − P ( A B ) , P ( A ) = P ( A B ) + P ( A B ˉ ) , P ( A ⋃ B ) = P ( A ) + P ( A ˉ B ) = P ( A B ) + P ( A B ˉ ) + P ( A ˉ B ) P(A\bar{B})=P(A)-P(AB),P(A)=P(AB)+P(A\bar{B}), \\P(A\bigcup B)=P(A)+P(\bar{A}B)=P(AB)+P(A\bar{B})+P(\bar{A}B) P(ABˉ)=P(A)P(AB),P(A)=P(AB)+P(ABˉ),P(AB)=P(A)+P(AˉB)=P(AB)+P(ABˉ)+P(AˉB)

(5)条件概率 P ( ⋅ ∣ B ) P(\centerdot |B) P(B)满足概率的所有性质, 例如:. P ( A ˉ 1 ∣ B ) = 1 − P ( A 1 ∣ B ) P ( A 1 ⋃ A 2 ∣ B ) = P ( A 1 ∣ B ) + P ( A 2 ∣ B ) − P ( A 1 A 2 ∣ B ) P ( A 1 A 2 ∣ B ) = P ( A 1 ∣ B ) P ( A 2 ∣ A 1 B ) P({{\bar{A}}_{1}}|B)=1-P({{A}_{1}}|B) P({{A}_{1}}\bigcup {{A}_{2}}|B)\\=P({{A}_{1}}|B)+P({{A}_{2}}|B)-P({{A}_{1}}{{A}_{2}}|B) P({{A}_{1}}{{A}_{2}}|B)=P({{A}_{1}}|B)P({{A}_{2}}|{{A}_{1}}B) P(Aˉ1B)=1P(A1B)P(A1A2B)=P(A1B)+P(A2B)P(A1A2B)P(A1A2B)=P(A1B)P(A2A1B)

(6)若 A 1 , A 2 , ⋯   , A n {{A}_{1}},{{A}_{2}},\cdots ,{{A}_{n}} A1,A2,,An相互独立,则KaTeX parse error: Expected '}', got 'EOF' at end of input: …-P({{A}_{i}}))}

(7)互斥、互逆与独立性之间的关系: A 与 B 互 逆 ⇒ A 与 B 互 斥 A与B互逆\Rightarrow A与B互斥 ABAB,但反之不成立, A 与 B 互 斥 ( 或 互 逆 ) 且 均 非 零 概 率 事 件 ⇒ A 与 B 不 独 立 . A与B互斥(或互逆)且均非零概率事件\Rightarrow A与B不独立. ABAB.

(8)若 A 1 , A 2 , ⋯   , A m , B 1 , B 2 , ⋯   , B n {{A}_{1}},{{A}_{2}},\cdots ,{{A}_{m}},{{B}_{1}},{{B}_{2}},\cdots ,{{B}_{n}} A1,A2,,Am,B1,B2,,Bn相互独立,则 f ( A 1 , A 2 , ⋯   , A m ) 与 g ( B 1 , B 2 , ⋯   , B n ) f({{A}_{1}},{{A}_{2}},\cdots ,{{A}_{m}})与g({{B}_{1}},{{B}_{2}},\cdots ,{{B}_{n}}) f(A1,A2,,Am)g(B1,B2,,Bn)也相互独立,其中 f ( ⋅ ) , g ( ⋅ ) f(\centerdot ),g(\centerdot ) f(),g()分别表示对相应事件做任意事件运算后所得的事件,另外,概率为1(或0)的事件与任何事件相互独立.

随机变量及其概率分布

1.随机变量及概率分布

取值带有随机性的变量,严格地说是定义在样本空间上,取值于实数的函数称为随机变量,概率分布通常指分布函数或分布律

2.分布函数的概念与性质

定义: F ( x ) = P ( X ≤ x ) , − ∞ &lt; x &lt; + ∞ F(x) = P(X \leq x), - \infty &lt; x &lt; + \infty F(x)=P(Xx),<x<+

性质:

(1) 0 ≤ F ( x ) ≤ 1 0 \leq F(x) \leq 1 0F(x)1

(2) F(x)单调不减

(3) 右连续 F ( x + 0 ) = F ( x ) F(x + 0) = F(x) F(x+0)=F(x)

(4) F ( − ∞ ) = 0 , F ( + ∞ ) = 1 F( - \infty) = 0,F( + \infty) = 1 F()=0,F(+)=1

3.离散型随机变量的概率分布
P ( X = x i ) = p i , i = 1 , 2 , ⋯ &ThinSpace; , n , ⋯ p i ≥ 0 , ∑ i = 1 ∞ p i = 1 P(X = x_{i}) = p_{i},i = 1,2,\cdots,n,\cdots\quad\quad p_{i} \geq 0,\sum_{i =1}^{\infty}p_{i} = 1 P(X=xi)=pi,i=1,2,,n,pi0,i=1pi=1
4.连续型随机变量的概率密度

概率密度f(x);非负可积,且:

(1) f ( x ) ≥ 0 , f(x) \geq 0, f(x)0,

(2) ∫ − ∞ + ∞ f ( x ) d x = 1 \int_{- \infty}^{+\infty}{f(x){dx} = 1} +f(x)dx=1

(3)x为f(x)的连续点,则:

f ( x ) = F ′ ( x ) f(x) = F&#x27;(x) f(x)=F(x)分布函数 F ( x ) = ∫ − ∞ x f ( t ) d t F(x) = \int_{- \infty}^{x}{f(t){dt}} F(x)=xf(t)dt

5.常见分布

(1) 0-1分布: P ( X = k ) = p k ( 1 − p ) 1 − k , k = 0 , 1 P(X = k) = p^{k}{(1 - p)}^{1 - k},k = 0,1 P(X=k)=pk(1p)1k,k=0,1

(2) 二项分布: B ( n , p ) : P ( X = k ) = C n k p k ( 1 − p ) n − k , k = 0 , 1 , ⋯ &ThinSpace; , n B(n,p): P(X = k) = C_{n}^{k}p^{k}{(1 - p)}^{n - k},k =0,1,\cdots,n B(n,p)P(X=k)=Cnkpk(1p)nk,k=0,1,,n

(3) Poisson分布: p ( λ ) : P ( X = k ) = λ k k ! e − λ , λ &gt; 0 , k = 0 , 1 , 2 ⋯ p(\lambda): P(X = k) = \frac{\lambda^{k}}{k!}e^{-\lambda},\lambda &gt; 0,k = 0,1,2\cdots p(λ)P(X=k)=k!λkeλ,λ>0,k=0,1,2

(4) 均匀分布 U ( a , b ) : f ( x ) = { 1 b − a , a &lt; x &lt; b 0 , U(a,b):f(x) = \{ \begin{matrix} &amp; \frac{1}{b - a},a &lt; x&lt; b \\ &amp; 0, \\ \end{matrix} U(a,b)f(x)={ba1,a<x<b0,

(5) 正态分布 : N ( μ , σ 2 ) : φ ( x ) = 1 2 π σ e − ( x − μ ) 2 2 σ 2 , σ &gt; 0 , ∞ &lt; x &lt; + ∞ :N(\mu,\sigma^{2}): \varphi(x) =\frac{1}{\sqrt{2\pi}\sigma}e^{- \frac{{(x - \mu)}^{2}}{2\sigma^{2}}},\sigma &gt; 0,\infty &lt; x &lt; + \infty :N(μ,σ2):φ(x)=2π σ1e2σ2(xμ)2,σ>0,<x<+

(6)指数分布: E ( λ ) : f ( x ) = { λ e − λ x , x &gt; 0 , λ &gt; 0 0 , E(\lambda):f(x) =\{ \begin{matrix} &amp; \lambda e^{-{λx}},x &gt; 0,\lambda &gt; 0 \\ &amp; 0, \\ \end{matrix} E(λ):f(x)={λeλx,x>0,λ>00,

(7)几何分布: G ( p ) : P ( X = k ) = ( 1 − p ) k − 1 p , 0 &lt; p &lt; 1 , k = 1 , 2 , ⋯ &ThinSpace; . G(p):P(X = k) = {(1 - p)}^{k - 1}p,0 &lt; p &lt; 1,k = 1,2,\cdots. G(p):P(X=k)=(1p)k1p,0<p<1,k=1,2,.

(8)超几何分布: H ( N , M , n ) : P ( X = k ) = C M k C N − M n − k C N n , k = 0 , 1 , ⋯ &ThinSpace; , m i n ( n , M ) H(N,M,n):P(X = k) = \frac{C_{M}^{k}C_{N - M}^{n -k}}{C_{N}^{n}},k =0,1,\cdots,min(n,M) H(N,M,n):P(X=k)=CNnCMkCNMnk,k=0,1,,min(n,M)

6.随机变量函数的概率分布

(1)离散型: P ( X = x 1 ) = p i , Y = g ( X ) P(X = x_{1}) = p_{i},Y = g(X) P(X=x1)=pi,Y=g(X)

则: P ( Y = y j ) = ∑ g ( x i ) = y i P ( X = x i ) P(Y = y_{j}) = \sum_{g(x_{i}) = y_{i}}^{}{P(X = x_{i})} P(Y=yj)=g(xi)=yiP(X=xi)

(2)连续型: X   ~ f X ( x ) , Y = g ( x ) X\tilde{\ }f_{X}(x),Y = g(x) X ~fX(x),Y=g(x)

则: F y ( y ) = P ( Y ≤ y ) = P ( g ( X ) ≤ y ) = ∫ g ( x ) ≤ y f x ( x ) d x , f Y ( y ) = F Y ′ ( y ) F_{y}(y) = P(Y \leq y) = P(g(X) \leq y) = \int_{g(x) \leq y}^{}{f_{x}(x)dx}, f_{Y}(y) = F&#x27;_{Y}(y) Fy(y)=P(Yy)=P(g(X)y)=g(x)yfx(x)dxfY(y)=FY(y)

7.重要公式与结论

(1) X ∼ N ( 0 , 1 ) ⇒ φ ( 0 ) = 1 2 π , Φ ( 0 ) = 1 2 , Φ ( − a ) = P ( X ≤ − a ) = 1 − Φ ( a ) X\sim N(0,1) \Rightarrow \varphi(0) = \frac{1}{\sqrt{2\pi}},\Phi(0) =\frac{1}{2}, \Phi( - a) = P(X \leq - a) = 1 - \Phi(a) XN(0,1)φ(0)=2π 1,Φ(0)=21,Φ(a)=P(Xa)=1Φ(a)

(2) X ∼ N ( μ , σ 2 ) ⇒ X − μ σ ∼ N ( 0 , 1 ) , P ( X ≤ a ) = Φ ( a − μ σ ) X\sim N\left( \mu,\sigma^{2} \right) \Rightarrow \frac{X -\mu}{\sigma}\sim N\left( 0,1 \right),P(X \leq a) = \Phi(\frac{a -\mu}{\sigma}) XN(μ,σ2)σXμN(0,1),P(Xa)=Φ(σaμ)

(3) X ∼ E ( λ ) ⇒ P ( X &gt; s + t ∣ X &gt; s ) = P ( X &gt; t ) X\sim E(\lambda) \Rightarrow P(X &gt; s + t|X &gt; s) = P(X &gt; t) XE(λ)P(X>s+tX>s)=P(X>t)

(4) X ∼ G ( p ) ⇒ P ( X = m + k ∣ X &gt; m ) = P ( X = k ) X\sim G(p) \Rightarrow P(X = m + k|X &gt; m) = P(X = k) XG(p)P(X=m+kX>m)=P(X=k)

(5) 离散型随机变量的分布函数为阶梯间断函数;连续型随机变量的分布函数为连续函数,但不一定为处处可导函数。

(6) 存在既非离散也非连续型随机变量。

一、概率与分布

1.1 条件概率与独立事件

  1. 条件概率:已知 A 事件发生的条件下 B 发生的概率,记作 P ( B ∣ A ) P(B\mid A) P(BA),它等于事件 AB 的概率相对于事件 A 的概率,即: P ( B ∣ A ) = P ( A B ) P ( A ) P(B\mid A)=\frac {P(AB)}{P(A)} P(BA)=P(A)P(AB)。其中必须有 P ( A ) &gt; 0 P(A) \gt 0 P(A)>0

  2. 条件概率分布的链式法则:对于 n 个随机变量 X 1 , X 2 , ⋯ &ThinSpace; , X n X_1,X_2,\cdots,X_n X1,X2,,Xn,有:
    P ( X 1 , X 2 , ⋯ &ThinSpace; , X n ) = P ( X 1 ) ∏ i = 2 n P ( X i ∣ X 1 , ⋯ &ThinSpace; , X i − 1 ) P(X_1,X_2,\cdots,X_n)=P(X_1)\prod_{i=2}^{n}P(X_i \mid X_1,\cdots,X_{i-1}) P(X1,X2,,Xn)=P(X1)i=2nP(XiX1,,Xi1)

  3. 两个随机变量 X , Y X,Y X,Y相互独立的数学描述: P ( X , Y ) = P ( X ) P ( Y ) P(X,Y)=P(X)P(Y) P(X,Y)=P(X)P(Y)。记作: X ⊥ Y X \bot Y XY

  4. 两个随机变量 X , Y X,Y X,Y关于随机变量 Z Z Z条件独立的数学描述: P ( X , Y ∣ Z ) = P ( X ∣ Z ) P ( Y ∣ Z ) P(X,Y\mid Z)=P(X\mid Z)P(Y\mid Z) P(X,YZ)=P(XZ)P(YZ)

    记作: X ⊥ Y ∣ Z X \bot Y \mid Z XYZ

1.2 联合概率分布

  1. 定义X 和 Y 的联合分布为: P ( a , b ) = P { X ≤ a , Y ≤ b } , − ∞ &lt; a , b &lt; + ∞ 。 P(a,b)=P\{X \le a, Y \le b\}, \quad - \infty \lt a,b \lt + \infty 。 P(a,b)=P{Xa,Yb},<a,b<+

    • X 的分布可以从联合分布中得到:
      P X ( a ) = P { X ≤ a } = P { X ≤ a , Y ≤ ∞ } = P ( a , ∞ ) , − ∞ &lt; a &lt; + ∞ P_X(a)=P\{X \le a\}=P\{X \le a, Y \le \infty\}=P(a,\infty),\quad - \infty \lt a \lt + \infty PX(a)=P{Xa}=P{Xa,Y}=P(a,),<a<+

    • Y 的分布可以从联合分布中得到:
      P Y ( b ) = P { Y ≤ b } = P { X ≤ ∞ , Y ≤ b } = P ( ∞ , b ) , − ∞ &lt; b &lt; + ∞ P_Y(b)=P\{Y \le b\}=P\{X \le \infty, Y \le b\}=P(\infty,b), \quad - \infty \lt b \lt + \infty PY(b)=P{Yb}=P{X,Yb}=P(,b),<b<+

  2. 当 X 和 Y 都是离散随机变量时, 定义 X 和 Y 的联合概率质量函数为: p ( x , y ) = P { X = x , Y = y } p(x,y)=P\{X=x,Y=y\} p(x,y)=P{X=x,Y=y}

    则 X 和 Y 的概率质量函数分布为:

    p X ( x ) = ∑ y p ( x , y ) p Y ( y ) = ∑ x p ( x , y ) p_X(x)=\sum_{y}p(x,y) \quad p_Y(y)=\sum_{x}p(x,y) pX(x)=yp(x,y)pY(y)=xp(x,y)

  3. 当 X 和 Y 联合地连续时,即存在函数 p ( x , y ) p(x,y) p(x,y),使得对于所有的实数集合 A \mathbb A A B \mathbb B B满足:

    P { X ∈ A , Y ∈ B } = ∫ B ∫ A p ( x , y ) d x d y P\{X \in \mathbb A, Y \in \mathbb B\}=\int_\mathbb B \int_\mathbb A p(x,y) dx dy P{XA,YB}=BAp(x,y)dxdy

    则函数 p(x,y) 称为 X 和 Y 的概率密度函数。

    • 联合分布为: P ( a , b ) = P { X ≤ a , Y ≤ b } = ∫ − ∞ a ∫ − ∞ b p ( x , y ) d x d y 。 P(a,b)=P\{X \le a, Y \le b\}= \int_{-\infty}^{a} \int_{-\infty}^{b} p(x,y) dx dy 。 P(a,b)=P{Xa,Yb}=abp(x,y)dxdy

    • X 和 Y 的分布函数以及概率密度函数分别为:
      P X ( a ) = ∫ − ∞ a ∫ − ∞ ∞ p ( x , y ) d x d y = ∫ − ∞ a p X ( x ) d x P Y ( b ) = ∫ − ∞ ∞ ∫ − ∞ b p ( x , y ) d x d y = ∫ − ∞ b p Y ( y ) d y p X ( x ) = ∫ − ∞ ∞ p ( x , y ) d y p Y ( y ) = ∫ − ∞ ∞ p ( x , y ) d x P_X(a)=\int_{-\infty}^{a} \int_{-\infty}^{\infty} p(x,y) dx dy =\int_{-\infty}^{a} p_X(x)dx\\ P_Y(b)=\int_{-\infty}^{\infty} \int_{-\infty}^{b} p(x,y) dx dy=\int_{-\infty}^{b} p_Y(y)dy\\ p_X(x)=\int_{-\infty}^{\infty} p(x,y) dy\\ p_Y(y)=\int_{-\infty}^{\infty} p(x,y) dx PX(a)=ap(x,y)dxdy=apX(x)dxPY(b)=bp(x,y)dxdy=bpY(y)dypX(x)=p(x,y)dypY(y)=p(x,y)dx
      .

二、期望和方差

2.1 期望

  1. 期望描述了随机变量的平均情况,衡量了随机变量 X 的均值。它是概率分布的泛函(函数的函数)。

    • 离散型随机变量 X 的期望: E [ X ] = ∑ i = 1 ∞ x i p i 。 \mathbb E[X]=\sum_{i=1}^{\infty}x_ip_i 。 E[X]=i=1xipi

      若右侧级数不收敛,则期望不存在。

    • 连续性随机变量 X 的期望: E [ X ] = ∫ − ∞ ∞ x p ( x ) d x \mathbb E[X]=\int_{-\infty}^{\infty}xp(x)dx E[X]=xp(x)dx

      若右侧极限不收敛,则期望不存在。

  2. 定理:对于随机变量 X ,设 Y = g ( X ) Y=g(X) Y=g(X)也为随机变量, g ( ⋅ ) g(\cdot) g()是连续函数。

    • 若 X 为离散型随机变量,若 Y 的期望存在,则: E [ Y ] = E [ g ( X ) ] = ∑ i = 1 ∞ g ( x i ) p i 。 \mathbb E[Y]=\mathbb E[g(X)]=\sum_{i=1}^{\infty}g(x_i)p_i 。 E[Y]=E[g(X)]=i=1g(xi)pi

      也记做: E X ∼ P ( X ) [ g ( X ) ] = ∑ x g ( x ) p ( x ) 。 \mathbb E_{X\sim P(X)}[g(X)]=\sum_{x}g(x)p(x) 。 EXP(X)[g(X)]=xg(x)p(x)

    • 若 X 为连续型随机变量,若 Y 的期望存在,则 : E [ Y ] = E [ g ( X ) ] = ∫ − ∞ ∞ g ( x ) p ( x ) d x \mathbb E[Y]=\mathbb E[g(X)]=\int_{-\infty}^{\infty}g(x)p(x)dx E[Y]=E[g(X)]=g(x)p(x)dx

      也记做: E X ∼ P ( X ) [ g ( X ) ] = ∫ g ( x ) p ( x ) d x 。 \mathbb E_{X\sim P(X)}[g(X)]=\int g(x)p(x)dx 。 EXP(X)[g(X)]=g(x)p(x)dx

该定理的意义在于:当求 E ( Y ) \mathbb E(Y) E(Y)时,不必计算出 Y Y Y的分布,只需要利用 X 的分布即可。

该定理可以推广至两个或两个以上随机变量的情况。对于随机变量 X , Y X,Y X,Y,假设 Z = g ( X , Y ) Z=g(X,Y) Z=g(X,Y)也是随机变量, $ g(\cdot)$为连续函数,则有: $\mathbb E[Z]=\mathbb E[g(X,Y)]=\int_{-\infty}{\infty}\int_{-\infty}{\infty}g(x,y)p(x,y)dxdy $。也记做: E X , Y ∼ P ( X , Y ) [ g ( X , Y ) ∫ g ( x , y ) p ( x , y ) d x d y 。 \mathbb E_{X,Y\sim P(X,Y)}[g(X,Y)\int g(x,y)p(x,y)dxdy 。 EX,YP(X,Y)[g(X,Y)g(x,y)p(x,y)dxdy

  1. 期望性质:

    • 常数的期望就是常数本身。

    • 对常数 C 有 : E [ C X ] = C E [ X ] 。 \mathbb E[CX]=C\mathbb E[X] 。 E[CX]=CE[X]

    • 对两个随机变量 X,Y,有: E [ X + Y ] = E [ X ] + E [ Y ] 。 \mathbb E[X+Y]=\mathbb E[X]+\mathbb E[Y] 。 E[X+Y]=E[X]+E[Y]

      该结论可以推广到任意有限个随机变量之和的情况。

    • 对两个相互独立的随机变量,有: E [ X Y ] = E [ X ] E [ Y ] 。 \mathbb E[XY]=\mathbb E[X]\mathbb E[Y] 。 E[XY]=E[X]E[Y]

      该结论可以推广到任意有限个相互独立的随机变量之积的情况。

2.2 方差

  1. 对随机变量 $ X$,若 E [ ( X − E [ X ] ) 2 ] \mathbb E[(X-\mathbb E[X])^{2}] E[(XE[X])2]存在,则称它为 X X X的方差,记作 V a r [ X ] 。 Var[X] 。 Var[X]

    X X X的标准差为方差的开平方。即:

    V a r [ X ] = E [ ( X − E [ X ] ) 2 ] σ = V a r [ X ] Var[X]=\mathbb E[(X-\mathbb E[X])^{2}] \\ \sigma=\sqrt{Var[X]} Var[X]=E[(XE[X])2]σ=Var[X]

    • 方差度量了随机变量 X 与期望值偏离的程度,衡量了 X 取值分散程度的一个尺度。

    • 由于绝对值 ∣ X − E [ X ] ∣ |X-\mathbb E[X] | XE[X]带有绝对值,不方便运算,因此采用平方来计算。

      又因为 ∣ X − E [ X ] ∣ 2 |X-\mathbb E[X]|^2 XE[X]2是一个随机变量,因此对它取期望,即得 X 与期望值偏离的均值。

  2. 根据定义可知:
    V a r [ X ] = E [ ( X − E [ X ] ) 2 ] = E [ X 2 ] − ( E [ X ] ) 2 V a r [ f ( X ) ] = E [ ( f ( X ) − E [ f ( X ) ] ) 2 ] Var[X]=\mathbb E[(X-\mathbb E[X])^{2}]=\mathbb E[X^{2}]-(\mathbb E[X])^{2}\\ Var [f(X)]=\mathbb E[(f(X)-\mathbb E[f(X)])^{2}] Var[X]=E[(XE[X])2]=E[X2](E[X])2Var[f(X)]=E[(f(X)E[f(X)])2]

  3. 对于一个期望为 μ \mu μ, 方差为 σ 2 , σ ≠ 0 \sigma^{2},\sigma \ne 0 σ2,σ̸=0的随机变量 X X X,随机变量 X ∗ = X − μ σ X^{*}=\frac {X-\mu}{\sigma} X=σXμ的数学期望为0,方差为1。 称 X ∗ X^{\ast} X X X X的标准化变量。

  4. 方差的性质:

    • 常数的方差恒为 0 。

    • 对常数 C ,有 V a r [ C X ] = C 2 V a r [ X ] 。 Var[CX]=C^{2}Var[X] 。 Var[CX]=C2Var[X]

    • 对两个随机变量 X,Y,有: V a r [ X + Y ] = V a r [ X ] + V a r [ Y ] + 2 E [ ( X − E [ X ] ) ( Y − E [ Y ] ) ] Var[X+Y]=Var[X] +Var[Y] +2\mathbb E[(X-\mathbb E[X])(Y-\mathbb E[Y])] Var[X+Y]=Var[X]+Var[Y]+2E[(XE[X])(YE[Y])]

      当 X 和 Y 相互独立时,有 V a r [ X + Y ] = V a r [ X ] + V a r [ Y ] Var[X+Y] = Var[X] +Var[Y] Var[X+Y]=Var[X]+Var[Y]。这可以推广至任意有限多个相互独立的随机变量之和的情况。

    • V a r [ X ] = 0 Var [X] =0 Var[X]=0的充要条件是 X 以概率1取常数。

2.3 协方差与相关系数

  1. 对于二维随机变量 ( X , Y ) (X,Y) (X,Y),可以讨论描述 X X X Y Y Y之间相互关系的数字特征。

    • 定义 E [ ( X − E [ X ] ) ( Y − E [ Y ] ) ] \mathbb E[(X-\mathbb E[X])(Y-\mathbb E [Y])] E[(XE[X])(YE[Y])]为随机变量 X 与 Y 的协方差,记作 C o v [ X , Y ] = E [ ( X − E [ X ] ) ( Y − E [ Y ] ) ] 。 Cov[ X,Y]=\mathbb E[(X-\mathbb E[X])(Y-\mathbb E [Y])]。 Cov[X,Y]=E[(XE[X])(YE[Y])]
    • 定义 ρ X Y = C o v [ X , Y ] V a r [ X ] V a r [ Y ] 为 \rho_{XY}=\frac {Cov[X,Y]}{\sqrt{Var[X] }\sqrt{Var[Y]}} 为 ρXY=Var[X] Var[Y] Cov[X,Y]随机变量 X 与Y的相关系数,它是协方差的归一化。
  2. 由定义可知:

    C o v [ X , Y ] = C o v [ Y , X ] C o v [ X , X ] = V a r [ X ] V a r [ X + Y ] = V a r [ X ] + V a r [ Y ] + 2 C o v [ X , Y ] Cov[ X,Y] =Cov[ Y,X] \\ Cov [X,X] =Var [X] \\ Var [X+Y] =Var [X] +Var [Y] +2Cov [X,Y] Cov[X,Y]=Cov[Y,X]Cov[X,X]=Var[X]Var[X+Y]=Var[X]+Var[Y]+2Cov[X,Y]

  3. 协方差的性质:

    • C o v [ a X , b Y ] = a b C o v [ X , Y ] , a , b Cov [aX,bY] =abCov [X,Y] ,a,b Cov[aX,bY]=abCov[X,Y]a,b为常数。
    • C o v [ X 1 + X 2 , Y ] = C o v [ X 1 , Y ] + C o v [ X 2 , Y ] Cov[ X_1+X_2,Y ]=Cov [X_1,Y] +Cov [X_2,Y] Cov[X1+X2,Y]=Cov[X1,Y]+Cov[X2,Y]
    • C o v [ f ( X ) , g ( Y ) ] = E [ ( f ( X ) − E [ f ( X ) ] ) ( g ( Y ) − E [ g ( Y ) ] ) ] Cov [f(X),g(Y)]=\mathbb E[(f(X)-\mathbb E[f(X)])(g(Y)-\mathbb E[g(Y)])] Cov[f(X),g(Y)]=E[(f(X)E[f(X)])(g(Y)E[g(Y)])]
    • ρ [ f ( X ) , g ( Y ) ] = C o v [ f ( X ) , g ( Y ) ] V a r [ f ( X ) ] V a r [ g ( Y ) ] \rho[f(X),g(Y)]=\frac {Cov[f(X),g(Y)]}{\sqrt{Var[f(X)] }\sqrt{Var[g(Y)]}} ρ[f(X),g(Y)]=Var[f(X)] Var[g(Y)] Cov[f(X),g(Y)]
  4. 协方差的物理意义:

    • 协方差的绝对值越大,说明两个随机变量都远离它们的均值。

    • 协方差如果为正,则说明两个随机变量同时趋向于取较大的值或者同时趋向于取较小的值;如果为负,则说明一个随变量趋向于取较大的值,另一个随机变量趋向于取较小的值。

    • 两个随机变量的独立性可以导出协方差为零。但是两个随机变量的协方差为零无法导出独立性。

      因为独立性也包括:没有非线性关系。有可能两个随机变量是非独立的,但是协方差为零。如:假设随机变量 X ∼ U [ − 1 , 1 X\sim U[-1,1 XU[1,1] 。定义随机变量 S 的概率分布函数为:

      P ( S = 1 ) = 1 2 P ( S = − 1 ) = 1 2 P(S=1)= \frac 12P(S=-1)= \frac 12 P(S=1)=21P(S=1)=21

      定义随机变量 Y=SX,则随机变量 X,Y 是非独立的,但是有: C o v [ X , Y ] = 0 Cov[X,Y]=0 Cov[X,Y]=0

  5. 相关系数的物理意义:考虑以随机变量 X 的线性函数 a + b X a+bX a+bX来近似表示 Y Y Y。以均方误差
    e = E [ ( Y − ( a + b X ) ) 2 ] = E [ Y 2 ] + b 2 E [ X 2 ] + a 2 − 2 b E [ X Y ] + 2 a b E [ X ] − 2 a E [ Y ] e=\mathbb E[(Y-(a+bX))^{2}]=\mathbb E[Y^{2}] +b^{2}\mathbb E[X^{2}] +a^{2}-2b\mathbb E[XY] +2ab\mathbb E[X] -2a\mathbb E [Y] e=E[(Y(a+bX))2]=E[Y2]+b2E[X2]+a22bE[XY]+2abE[X]2aE[Y]
    来衡量以 a + b X a+bX a+bX近似表达 Y 的好坏程度。 e e e越小表示近似程度越高。

    为求得最好的近似,则对 a , b a,b a,b分别取偏导数,得到:
    a 0 = E [ Y ] − b 0 E [ X ] = E [ Y ] − E [ X ] C o v [ X , Y ] V a r [ X ] b 0 = C o v [ X , Y ] V a r [ X ] min ⁡ ( e ) = E [ ( Y − ( a 0 + b 0 X ) ) 2 ] = ( 1 − ρ X Y 2 ) V a r [ Y ] a_0=\mathbb E[Y] -b_0\mathbb E[X] =\mathbb E[Y] -\mathbb E[X] \frac{Cov [X,Y]}{Var [X] }\\ b_0=\frac{Cov[ X,Y] }{Var[ X] }\\ \min(e)=\mathbb E[(Y-(a_0+b_0X))^{2}]=(1-\rho^{2}_{XY})Var [Y] a0=E[Y]b0E[X]=E[Y]E[X]Var[X]Cov[X,Y]b0=Var[X]Cov[X,Y]min(e)=E[(Y(a0+b0X))2]=(1ρXY2)Var[Y]
    因此有以下定理:

    • ∣ ρ X Y ∣ ≤ 1 ( ∣ ⋅ ∣ |\rho_{XY}| \le 1(|\cdot| ρXY1是绝对值)。
    • ∣ ρ X Y ∣ = 1 |\rho_{XY}| = 1 ρXY=1的充要条件是:存在常数 a,b 使得 $ P{Y=a+bX}=1。$
  6. 当 $|\rho_{XY}| $较大时, e e e较小,意味着随机变量 X 和 Y 联系较紧密。于是 ρ X Y \rho_{XY} ρXY是一个表征 $ X、Y$之间线性关系紧密程度的量。

  7. ρ X Y = 0 \rho_{XY}=0 ρXY=0时,称 X X X Y Y Y不相关。

    • 不相关是就线性关系来讲的,而相互独立是一般关系而言的。
    • 相互独立一定不相关;不相关则未必独立。

2.4 协方差矩阵

  1. 设 X 和 Y 是随机变量。

    • E [ X k ] , k = 1 , 2 , ⋯ \mathbb E[X^{k}] ,k=1,2,\cdots E[Xk],k=1,2,存在,则称它为 X 的 k k k阶原点矩,简称 k k k阶矩。
    • E [ ( X − E [ X ] ) k ] , k = 2 , 3 , ⋯ \mathbb E[(X-\mathbb E[X])^{k}] ,k=2,3,\cdots E[(XE[X])k],k=2,3,存在,则称它为 $ X $的 $ k$阶中心矩。
    • E [ X k Y l ] , k , l = 1 , 2 , ⋯ \mathbb E[X^{k}Y^{l}] ,k,l=1,2,\cdots E[XkYl],k,l=1,2,存在,则称它为 X X X Y Y Y k + l k+l k+l阶混合矩。
    • E [ ( X − E [ X ] ) k ( Y − E [ Y ] ) l ] , k , l = 1 , 2 , ⋯ \mathbb E[(X-\mathbb E[X])^{k}(Y-\mathbb E[Y])^{l}] ,k,l=1,2,\cdots E[(XE[X])k(YE[Y])l],k,l=1,2,存在,则称它为 $X $和 $Y $的 $k+l $阶混合中心矩。

    因此:期望是一阶原点矩,方差是二阶中心矩,协方差是二阶混合中心矩。

  2. 协方差矩阵:

    • 二维随机变量 ( X 1 , X 2 ) (X_1,X_2) (X1,X2)有四个二阶中心矩(假设他们都存在),记作:
      c 11 = E [ ( X 1 − E [ X 1 ] ) 2 ] c 12 = E [ ( X 1 − E [ X 1 ] ) ( X 2 − E [ X 2 ] ) ] c 21 = E [ ( X 2 − E [ X 2 ] ) ( X 1 − E [ X 1 ] ) ] c 22 = E [ ( X 2 − E [ X 2 ] ) 2 ] c_{11}=\mathbb E[(X_1-\mathbb E[X_1])^{2}] \\ c_{12}=\mathbb E[(X_1-\mathbb E[X_1])( X_2-\mathbb E[X_2]) ] \\ c_{21}=\mathbb E[( X_2-\mathbb E[X_2])(X_1-\mathbb E[X_1] ) ] \\ c_{22}=\mathbb E[(X_2-\mathbb E[X_2])^{2}] c11=E[(X1E[X1])2]c12=E[(X1E[X1])(X2E[X2])]c21=E[(X2E[X2])(X1E[X1])]c22=E[(X2E[X2])2]
      称矩阵
      C = [ c 11 c 12 c 21 c 22 ] \mathbf C=\begin{bmatrix} c_{11}&amp;c_{12}\\ c_{21}&amp;c_{22} \end{bmatrix} C=[c11c21c12c22]
      为随机变量 ( X 1 , X 2 ) (X_1,X_2) (X1,X2)的协方差矩阵。

    • n n n维随机变量 ( X 1 , X 2 , ⋯ &ThinSpace; , X n ) (X_1,X_2,\cdots,X_n) (X1,X2,,Xn)的二阶混合中心矩 c i j = C o v [ X i , X j ] = E [ ( X i − E [ X i ] ) ( X j − E [ X j ] ) ] c_{ij}=Cov [X_i,X_j] =\mathbb E[(X_i-\mathbb E[X_i] )( X_j-\mathbb E[X_j] ) ] cij=Cov[Xi,Xj]=E[(XiE[Xi])(XjE[Xj])]都存在,则称矩阵
      C = [ c 11 c 12 ⋯ c 1 n c 21 c 22 ⋯ c 2 n ⋮ ⋮ ⋱ ⋮ c n 1 c n 2 ⋯ c n n ] \mathbf C= \begin{bmatrix} c_{11} &amp; c_{12} &amp; \cdots &amp; c_{1n} \\ c_{21} &amp; c_{22} &amp; \cdots &amp; c_{2n} \\ \vdots &amp;\vdots &amp;\ddots &amp;\vdots \\ c_{n1} &amp; c_{n2} &amp; \cdots &amp; c_{nn} \\ \end{bmatrix} C=c11c21cn1c12c22cn2c1nc2ncnn
      为 $ n $维随机变量 ( X 1 , X 2 , ⋯ &ThinSpace; , X n ) (X_1,X_2,\cdots,X_n) (X1,X2,,Xn)的协方差矩阵。

      由于 c i j = c j i , i ≠ j , i , j = 1 , 2 , ⋯ &ThinSpace; , n c_{ij}=c_{ji}, i\ne j, i,j=1,2,\cdots,n cij=cji,i̸=j,i,j=1,2,,n因此协方差矩阵是个对称阵。

  3. 通常 n n n维随机变量的分布是不知道的,或者太复杂以致数学上不容易处理。因此实际中协方差矩阵非常重要。

三、大数定律及中心极限定理

3.1 切比雪夫不等式

  1. 切比雪夫不等式:假设随机变量 X 具有期望 E [ X ] = μ , \mathbb E[X] =\mu, E[X]=μ方差 V a r ( X ) = σ 2 Var(X)=\sigma^{2} Var(X)=σ2,则对于任意正数 ε \varepsilon ε,下面的不等式成立:
    P { ∣ X − μ ∣ ≥ ε } ≤ σ 2 ε 2 P\{|X-\mu| \ge \varepsilon\} \le \frac {\sigma^{2}}{\varepsilon^{2}} P{Xμε}ε2σ2

    • 其意义是:对于距离 E [ X ] \mathbb E[X] E[X]足够远的地方 (距离大于等于 ε \varepsilon ε),事件出现的概率是小于等于 σ 2 ε 2 。 \frac {\sigma^{2}}{\varepsilon^{2}}。 ε2σ2即事件出现在区间 $[\mu-\varepsilon , \mu+\varepsilon] $的概率大于 1 − σ 2 ε 2 。 1- \frac {\sigma^{2}}{\varepsilon^{2}} 。 1ε2σ2

      该不等式给出了随机变量 X X X在分布未知的情况下, 事件 { ∣ X − μ ∣ ≤ ε } \{|X-\mu| \le \varepsilon\} {Xμε}的下限估计。如: P { ∣ X − μ ∣ &lt; 3 σ } ≥ 0.8889 。 P\{|X-\mu| \lt 3\sigma\} \ge 0.8889 。 P{Xμ<3σ}0.8889

    • 证明:
      P { ∣ X − μ ∣ ≥ ε } = ∫ ∣ x − μ ∣ ≥ ε p ( x ) d x ≤ ∫ ∣ x − μ ∣ ≥ ε ∣ x − μ ∣ 2 ε 2 p ( x ) d x ≤ 1 ε 2 ∫ − ∞ ∞ ( x − μ ) 2 p ( x ) d x = σ 2 ε 2 P\{|X-\mu| \ge \varepsilon\}=\int_{|x-\mu| \ge \varepsilon}p(x)dx \le \int_{|x-\mu| \ge \varepsilon} \frac{|x-\mu|^{2}}{\varepsilon^{2}}p(x)dx \\ \le \frac {1}{\varepsilon^{2}}\int_{-\infty}^{\infty}(x-\mu)^{2}p(x)dx=\frac{\sigma^{2}}{\varepsilon^{2}} P{Xμε}=xμεp(x)dxxμεε2xμ2p(x)dxε21(xμ)2p(x)dx=ε2σ2

  2. 切比雪夫不等式的特殊情况:设随机变量 X 1 , X 2 , ⋯ &ThinSpace; , X n , ⋯ X_1,X_2,\cdots,X_n,\cdots X1,X2,,Xn,相互独立,且具有相同的数学期望和方差: E [ X k ] = μ , V a r [ X k ] = σ 2 。 \mathbb E[X_k] =\mu, Var[X_k] =\sigma^{2}。 E[Xk]=μ,Var[Xk]=σ2作前 n 个随机变量的算术平均: X ‾ = 1 n ∑ k = 1 n X k , \overline X =\frac {1}{n} \sum _{k=1}^{n}X_k, X=n1k=1nXk则对于任意正数 ε \varepsilon ε有:
    lim ⁡ n → ∞ P { ∣ X ‾ − μ ∣ &lt; ε } = lim ⁡ n → ∞ P { ∣ 1 n ∑ k = 1 n X k − μ ∣ &lt; ε } = 1 \lim_{n\rightarrow \infty}P\{|\overline X-\mu| \lt \varepsilon\}=\lim_{n\rightarrow \infty}P\{|\frac{1}{n}\sum_{k=1}^{n}X_k-\mu| \lt \varepsilon\} =1 nlimP{Xμ<ε}=nlimP{n1k=1nXkμ<ε}=1
    证明:根据期望和方差的性质有 : E [ X ‾ ] = μ , V a r [ X ‾ ] = σ 2 n :\mathbb E[\overline X]=\mu, Var[\overline X]=\frac{\sigma^2}{n} E[X]=μVar[X]=nσ2。根据切比雪夫不等式有:
    P { ∣ X ‾ − μ ∣ ≥ ε } ≤ σ 2 n ε 2 P\{|\overline X-\mu| \ge \varepsilon\} \le \frac{\sigma^2}{n\varepsilon^2} P{Xμε}nε2σ2
    则有 lim ⁡ n → ∞ P { ∣ X ‾ − μ ∣ ≥ ε } = 0 \lim_{n\rightarrow \infty}P\{|\overline X-\mu| \ge \varepsilon\} = 0 limnP{Xμε}=0,因此有: lim ⁡ n → ∞ P { ∣ X ‾ − μ ∣ &lt; ε } = 1 。 \lim_{n\rightarrow \infty}P\{|\overline X-\mu| \lt \varepsilon\} =1 。 limnP{Xμ<ε}=1

3.2 大数定理

  1. 依概率收敛:设 Y 1 , Y 2 , ⋯ &ThinSpace; , Y n , ⋯ Y_1,Y_2,\cdots,Y_n,\cdots Y1,Y2,,Yn,是一个随机变量序列, $ a $是一个常数。

    若对于任意正数 ε \varepsilon ε有 : lim ⁡ n → ∞ P { ∣ Y n − a ∣ ≤ ε } = 1 \lim_{n\rightarrow \infty}P\{|Y_{n}-a| \le \varepsilon \}=1 limnP{Ynaε}=1,则称序列 Y 1 , Y 2 , ⋯ &ThinSpace; , Y n , ⋯ Y_1,Y_2,\cdots,Y_n,\cdots Y1,Y2,,Yn,依概率收敛于 $ a $。记作: Y n → P a Y_{n} \stackrel{P}{\rightarrow} a YnPa

  2. 依概率收敛的两个含义:

    • 收敛:表明这是一个随机变量序列,而不是某个随机变量;且序列是无限长,而不是有限长。
    • 依概率:表明序列无穷远处的随机变量 $Y_{\infty} $的分布规律为:绝大部分分布于点 $a $,极少数位于 a a a之外。且分布于 a a a之外的事件发生的概率之和为0。
  3. 大数定理一: 设随机变量 X 1 , X 2 , ⋯ &ThinSpace; , X n , ⋯ X_1,X_2,\cdots,X_n,\cdots X1,X2,,Xn,相互独立,且具有相同的数学期望和方差: E [ X k ] = μ , V a r [ X k ] = σ 2 。 \mathbb E[X_k] =\mu, Var[X_k] =\sigma^{2}。 E[Xk]=μ,Var[Xk]=σ2则序列: X ‾ = 1 n ∑ k = 1 n X k \overline X =\frac {1}{n} \sum _{k=1}^{n}X_k X=n1k=1nXk依概率收敛于 $\mu $, 即 X ‾ → P μ 。 \overline X \stackrel{P}{\rightarrow} \mu 。 XPμ

    注意:这里并没有要求随机变量 X 1 , X 2 , ⋯ &ThinSpace; , X n , ⋯ X_1,X_2,\cdots,X_n,\cdots X1,X2,,Xn,同分布。

  4. 伯努利大数定理: 设 n A n_A nA n n n次独立重复实验中事件 A 发生的次数, $p $是事件 A 在每次试验中发生的概率。则对于任意正数 ε \varepsilon ε有:
    lim ⁡ n → ∞ P { ∣ n A n − p ∣ &lt; ε } = 1 o r : lim ⁡ n → ∞ P { ∣ n A n − p ∣ ≥ ε } = 0 \lim_{n \rightarrow \infty}P\{|\frac{n_{A}}{n}-p| \lt \varepsilon\}=1 \\ or: \quad \lim_{n \rightarrow \infty}P\{|\frac{n_{A}}{n}-p| \ge \varepsilon\}=0 nlimP{nnAp<ε}=1or:nlimP{nnApε}=0
    即:当独立重复实验执行非常大的次数时,事件 A 发生的频率逼近于它的概率。

  5. 辛钦定理:设随机变量 X 1 , X 2 , ⋯ &ThinSpace; , X n , ⋯ X_1,X_2,\cdots,X_n,\cdots X1,X2,,Xn,相互独立,服从同一分布,且具有相同的数学期望: E [ X k ] = μ 。 \mathbb E[X_k] =\mu。 E[Xk]=μ则对于任意正数 ε \varepsilon ε有:

    lim ⁡ n → ∞ P { ∣ 1 n ∑ k = 1 n X k − μ ∣ &lt; ε } = 1 \lim_{n\rightarrow \infty}P\{|\frac{1}{n}\sum_{k=1}^{n}X_k-\mu| \lt \varepsilon\} =1 limnP{n1k=1nXkμ<ε}=1

    • 注意:这里并没有要求随机变量 X 1 , X 2 , ⋯ &ThinSpace; , X n , ⋯ X_1,X_2,\cdots,X_n,\cdots X1,X2,,Xn,的方差存在。
    • 伯努利大数定理是亲钦定理的特殊情况。

3.3 中心极限定理

  1. 独立同分布的中心极限定理:设随机变量 X 1 , X 2 , ⋯ &ThinSpace; , X n X_1,X_2,\cdots,X_n X1,X2,,Xn独立同分布,且具有数学期望和方差: E [ X k ] = μ , V a r [ X k ] = σ 2 \mathbb E[X_k] =\mu, Var[X_k] =\sigma^{2} E[Xk]=μ,Var[Xk]=σ2, 则随机变量之和 S X n ‾ = ∑ k = 1 n X k \overline {SX_n}=\sum_{k=1}^{n} X_k SXn=k=1nXk的标准变化量:
    Y n = S X n ‾ − E [ S X n ‾ ] V a r [ S X n ‾ ] = S X n ‾ − n μ n σ Y_n=\frac{\overline {SX_n}-\mathbb E[\overline {SX_n}] }{\sqrt{Var[\overline {SX_n}] }}=\frac{\overline {SX_n}-n\mu}{\sqrt n \sigma} Yn=Var[SXn] SXnE[SXn]=n σSXnnμ
    的概率分布函数 F n ( x ) F_n(x) Fn(x)对于任意 $ x $满足:
    lim ⁡ n → ∞ F n ( x ) = lim ⁡ n → ∞ P { Y n ≤ x } = lim ⁡ n → ∞ P { ∑ k = 1 n X k − n μ n σ ≤ x } = ∫ − ∞ x 1 2 π e − t 2 / 2 d t = Φ ( x ) \lim_{n\rightarrow \infty}F_n(x)=\lim_{n\rightarrow \infty}P\{Y_n \le x\}=\lim_{n\rightarrow \infty}P\{\frac{\sum_{k=1}^{n} X_k-n\mu}{\sqrt n \sigma} \le x\}\\ = \int_{-\infty}^{x} \frac{1}{\sqrt{2\pi}}e^{-t^{2}/2}dt=\Phi(x) nlimFn(x)=nlimP{Ynx}=nlimP{n σk=1nXknμx}=x2π 1et2/2dt=Φ(x)

    • 其物理意义为:均值方差为 μ , σ 2 \mu,\sigma^{2} μ,σ2 的独立同分布的随机变量 X 1 , X 2 , ⋯ &ThinSpace; , X n X_1,X_2,\cdots,X_n X1,X2,,Xn之和 S X n ‾ = ∑ k = 1 n X k \overline {SX_n}=\sum_{k=1}^{n} X_k SXn=k=1nXk的标准变化量 Y n Y_n Yn ,当 n n n充分大时,其分布近似于标准正态分布。

      即: S X n ‾ = ∑ k = 1 n X k \overline {SX_n}=\sum_{k=1}^{n} X_k SXn=k=1nXk在 n 充分大时,其分布近似于 N ( n μ , n σ 2 ) 。 N(n\mu,n\sigma^{2}) 。 N(nμ,nσ2)

    • 一般情况下,很难求出 n n n个随机变量之和的分布函数。因此当 n n n充分大时,可以通过正态分布来做理论上的分析或者计算。

  2. Liapunov 定理:设随机变量 X 1 , X 2 , ⋯ &ThinSpace; , X n , ⋯ X_1,X_2,\cdots,X_n,\cdots X1,X2,,Xn,相互独立,具有数学期望和方差: E [ X k ] = μ k , V a r [ X k ] = σ k 2 \mathbb E[X_k] =\mu_k,Var[X_k] =\sigma_k^{2} E[Xk]=μk,Var[Xk]=σk2。记: B n 2 = ∑ k = 1 n σ k 2 B_n^{2}=\sum_{k=1}^{n}\sigma_k^{2} Bn2=k=1nσk2。 若存在正数 δ \delta δ ,使得当 n → ∞ n \rightarrow \infty n时, 1 B n 2 + δ ∑ k = 1 n E [ ∣ X k − μ k ∣ 2 + δ ] → 0 \frac{1}{B_n^{2+\delta}}\sum_{k=1}^{n}\mathbb E [|X_k-\mu_k|^{2+\delta}] \rightarrow 0 Bn2+δ1k=1nE[Xkμk2+δ]0。则随机变量之和 S X n ‾ = ∑ k = 1 n X k \overline {SX_n}=\sum_{k=1}^{n} X_k SXn=k=1nXk 的标准变化量:
    Z n = S X n ‾ − E [ S X n ‾ ] V a r [ S X n ‾ ] = S X n ‾ − ∑ k = 1 n μ k B n Z_n=\frac{\overline {SX_n}-\mathbb E[\overline {SX_n}] }{\sqrt{Var [\overline {SX_n}] }}=\frac{\overline {SX_n}-\sum_{k=1}^{n}\mu_k}{B_n} Zn=Var[SXn] SXnE[SXn]=BnSXnk=1nμk
    的概率分布函数 $ F_n(x) $对于任意 x 满足:
    lim ⁡ n → ∞ F n ( x ) = lim ⁡ n → ∞ P { Z n ≤ x } = lim ⁡ n → ∞ P { ∑ k = 1 n X k − ∑ k = 1 n μ k B n ≤ x } = ∫ − ∞ x 1 2 π e − t 2 / 2 d t = Φ ( x ) \lim_{n\rightarrow \infty}F_n(x)=\lim_{n\rightarrow \infty}P\{Z_n \le x\}=\lim_{n\rightarrow \infty}P\{\frac{\sum_{k=1}^{n} X_k-\sum_{k=1}^{n}\mu_k}{B_n} \le x\}\\ = \int_{-\infty}^{x} \frac{1}{\sqrt{2\pi}}e^{-t^{2}/ 2}dt=\Phi(x) nlimFn(x)=nlimP{Znx}=nlimP{Bnk=1nXkk=1nμkx}=x2π 1et2/2dt=Φ(x)

    • 其物理意义为:相互独立的随机变量 X 1 , X 2 , ⋯ &ThinSpace; , X n , ⋯ X_1,X_2,\cdots,X_n,\cdots X1,X2,,Xn,之和 S X n ‾ = ∑ k = 1 n X k \overline {SX_n}=\sum_{k=1}^{n} X_k SXn=k=1nXk 的衍生随机变量序列 Z n = S X n ‾ − ∑ k = 1 n μ k B n Z_n=\frac{\overline {SX_n}-\sum_{k=1}^{n}\mu_k}{B_n} Zn=BnSXnk=1nμk,当 $ n $充分大时,其分布近似与标准正态分布。
    • 这里并不要求 X 1 , X 2 , ⋯ &ThinSpace; , X n , ⋯ X_1,X_2,\cdots,X_n,\cdots X1,X2,,Xn,同分布。
  3. Demoiver-Laplace定理:设随机变量序列 $\eta_n,n=1,2,… 服 从 参 数 为 服从参数为 (n, p)$ 的二项分布,其中 $0 \lt p \lt 1 。 则 对 于 任 意 。则对于任意 x$ , 有:
    lim ⁡ n → ∞ P { η n − n p n p ( 1 − p ) ≤ x } = ∫ − ∞ x 1 2 π e − t 2 ∣ 2 d t = Φ ( x ) \lim_{n\rightarrow \infty}P\{\frac{\eta_n-np}{\sqrt{np(1-p)}} \le x\}=\int_{-\infty}^{x} \frac{1}{\sqrt{2\pi}}e^{-t^{2}\mid 2}dt=\Phi(x) nlimP{np(1p) ηnnpx}=x2π 1et22dt=Φ(x)
    该定理表明,正态分布是二项分布的极限分布。当 n 充分大时,可以利用正态分布来计算二项分布的概率。

五、常见概率分布

5.1 均匀分布

  1. 离散随机变量的均匀分布:假设$ X 有 有 k $个取值: x 1 , x 2 , ⋯ &ThinSpace; , x k x_1,x_2,\cdots,x_k x1,x2,,xk ,则均匀分布的概率密度函数(probability mass function:PMF)为:

    p ( X = x i ) = 1 k , i = 1 , 2 , ⋯ &ThinSpace; , k p(X=x_i) =\frac 1k,\quad i=1,2,\cdots,k p(X=xi)=k1,i=1,2,,k

  2. 连续随机变量的均匀分布: 假设 X 在 [a,b]上均匀分布,则其概率密度函数(probability density function:PDF)为:
    p ( X = x ) = { 0 , x ∉ [ a , b ] 1 b − a , x ∈ [ a , b ] p(X=x)=\begin{cases} 0,&amp;x\notin [a,b]\\ \frac{1}{b-a},&amp;x \in [a,b]\\ \end{cases} p(X=x)={0,ba1,x/[a,b]x[a,b]
    .

5.2 伯努利分布

  1. 伯努利分布:参数为 ϕ ∈ [ 0 , 1 ] \phi\in [0,1] ϕ[0,1]。随机变量 X ∈ { 0 , 1 } X \in \{0,1\} X{0,1}

    • 概率分布函数为: p ( X = x ) = ϕ x ( 1 − ϕ ) 1 − x &ThickSpace; , x ∈ { 0 , 1 } p(X=x)=\phi^{x}(1-\phi)^{1-x}\;,x \in \{0,1\} p(X=x)=ϕx(1ϕ)1x,x{0,1}
    • 期望: E [ X ] = ϕ \mathbb E[X]=\phi E[X]=ϕ 。方差:$ Var[X]=\phi(1-\phi) $
  2. categorical 分布:它是二项分布的推广,也称作multinoulli分布。假设随机变量 X ∈ { 1 , 2 , ⋯ &ThinSpace; , K } , X \in \{1,2,\cdots,K\}, X{1,2,,K}其概率分布函数为:
    p ( X = 1 ) = θ 1 p ( X = 2 ) = θ 2 ⋮ p ( X = K − 1 ) = θ K − 1 p ( X = K ) = 1 − ∑ i = 1 K − 1 θ i p(X=1)=\theta_1\\ p(X=2)=\theta_2\\ \vdots\\ p(X=K-1)=\theta_{K-1}\\ p(X=K)=1-\sum_{i=1}^{K-1}\theta_i \\ p(X=1)=θ1p(X=2)=θ2p(X=K1)=θK1p(X=K)=1i=1K1θi
    其中 θ i \theta_i θi为参数,它满足 θ i ∈ [ 0 , 1 ] \theta_i \in [0,1] θi[0,1],且 ∑ i = 1 K − 1 θ i ∈ [ 0 , 1 ] 。 \sum_{i=1}^{K-1}\theta_i \in [0,1] 。 i=1K1θi[0,1]

5.3 二项分布

  1. 假设试验只有两种结果:成功的概率为 ϕ \phi ϕ ,失败的概率为 1 − ϕ 1-\phi 1ϕ 。 则二项分布描述了:独立重复地进行 n 次试验中,成功$ x $次的概率。

    • 概率质量函数:

      p ( X = x ) = n ! x ! ( n − x ) ! ϕ x ( 1 − ϕ ) n − x , x ∈ { 0 , 1 , ⋯ &ThinSpace; , n } p(X=x)=\frac{n!}{x!(n-x)!}\phi^{x}(1-\phi)^{n-x},x\in \{0,1,\cdots,n\} p(X=x)=x!(nx)!n!ϕx(1ϕ)nx,x{0,1,,n}

    • 期望: E [ X ] = n ϕ \mathbb E[X]=n\phi E[X]=nϕ 。 方差: V a r [ X ] = n ϕ ( 1 − ϕ ) 。 Var[X]=n\phi(1-\phi) 。 Var[X]=nϕ(1ϕ)

5.4 高斯分布

  1. 正态分布是很多应用中的合理选择。如果某个随机变量取值范围是实数,且对它的概率分布一无所知,通常会假设它服从正态分布。有两个原因支持这一选择:
    • 建模的任务的真实分布通常都确实接近正态分布。中心极限定理表明,多个独立随机变量的和近似正态分布。
    • 在具有相同方差的所有可能的概率分布中,正态分布的熵最大(即不确定性最大)。
5.4.1 一维正态分布
  1. 正态分布的概率密度函数为 :

    p ( x ) = 1 2 π σ e − ( x − μ ) 2 / ( 2 σ 2 ) , − ∞ &lt; x &lt; ∞ p(x)=\frac{1}{\sqrt{2\pi}\sigma}e^{-(x-\mu)^{2}/ (2\sigma^{2})}, -\infty \lt x \lt \infty p(x)=2π σ1e(xμ)2/(2σ2),<x<

    其中 μ , σ ( σ &gt; 0 ) \mu,\sigma(\sigma \gt 0) μ,σ(σ>0)为常数。

    • 若随机变量 X 的概率密度函数如上所述,则称 X 服从参数为 μ , σ \mu,\sigma μ,σ 的正态分布或者高斯分布,记作 X ∼ N ( μ , σ 2 ) X \sim N(\mu,\sigma^{2}) XN(μ,σ2)
    • 特别的,当 μ = 0 , σ = 1 \mu=0,\sigma=1 μ=0,σ=1 时,称为标准正态分布,其概率密度函数记作 φ ( x ) \varphi(x) φ(x),分布函数记作 Φ ( x ) \Phi(x) Φ(x)
    • 为了计算方便,有时也记作: N ( x ; μ , β − 1 ) = β 2 π exp ⁡ ( − 1 2 β ( x − μ ) 2 ) \mathcal N(x;\mu,\beta^{-1}) =\sqrt{\frac{\beta}{2\pi}}\exp\left(-\frac{1}{2}\beta(x-\mu)^{2}\right) N(x;μ,β1)=2πβ exp(21β(xμ)2),其中 β ∈ ( 0 , ∞ ) \beta \in (0,\infty) β(0,)
  2. 正态分布的概率密度函数性质:

    • 曲线关于 x = μ x=\mu x=μ对称。
    • 曲线在 x = μ x=\mu x=μ 时取最大值。
    • 曲线在 x = μ ± σ x=\mu \pm \sigma x=μ±σ 处有拐点。
    • 参数 μ \mu μ决定曲线的位置; σ \sigma σ决定图形的胖瘦。

    img

  3. X ∼ N ( μ , σ 2 ) X \sim N(\mu,\sigma^{2}) XN(μ,σ2)则:

    • X − μ σ ∼ N ( 0 , 1 ) \frac{X-\mu}{\sigma} \sim N(0,1) σXμN(0,1)
    • 期望: E [ X ] = μ \mathbb E[X] = \mu E[X]=μ。方差: V a r [ X ] = σ 2 Var[X]=\sigma^2 Var[X]=σ2
  4. 有限个相互独立的正态随机变量的线性组合仍然服从正态分布:若随机变量 X i ∼ N ( μ i , σ i 2 ) , i = 1 , 2 , ⋯ &ThinSpace; , n X_i \sim N(\mu_i,\sigma_i^{2}),i=1,2,\cdots,n XiN(μi,σi2),i=1,2,,n 且它们相互独立,则它们的线性组合: C 1 X 1 + C 2 X 2 + ⋯ + C n X n C_1X_1+C_2X_2+\cdots+C_nX_n C1X1+C2X2++CnXn仍然服从正态分布(其中 C 1 , C 2 , ⋯ &ThinSpace; , C n C_1,C_2,\cdots,C_n C1,C2,,Cn不全是为 0 的常数),且: C 1 X 1 + C 2 X 2 + ⋯ + C n X n ∼ N ( ∑ i = 1 n C i μ i , ∑ i = 1 n C i 2 σ i 2 ) C_1X_1+C_2X_2+\cdots+C_nX_n \sim N(\sum_{i=1}^{n}C_i\mu_i,\sum_{i=1}^{n}C_i^{2}\sigma_i^{2}) C1X1+C2X2++CnXnN(i=1nCiμi,i=1nCi2σi2)

5.4.2 多维正态分布
  1. 二维正态随机变量 (X,Y) 的概率密度为:
    p ( x , y ) = 1 2 π σ 1 σ 2 1 − ρ 2 exp ⁡ { − 1 2 ( 1 − ρ 2 ) [ ( x − μ 1 ) 2 σ 1 2 − 2 ρ ( x − μ 1 ) ( y − μ 2 ) σ 1 σ 2 + ( y − μ 2 ) 2 σ 2 2 ] } p(x,y)=\frac{1}{2\pi\sigma_1\sigma_2\sqrt{1-\rho^{2}}}\exp\{\frac{-1}{2(1-\rho^{2})}[\frac{(x-\mu_1)^{2}}{\sigma_1^{2}}\\ -2\rho\frac{(x-\mu_1)(y-\mu_2)}{\sigma_1\sigma_2}+\frac{(y-\mu_2)^{2}}{\sigma_2^{2}}]\} p(x,y)=2πσ1σ21ρ2 1exp{2(1ρ2)1[σ12(xμ1)22ρσ1σ2(xμ1)(yμ2)+σ22(yμ2)2]}
    根据定义,可以计算出:
    p X ( x ) = 1 2 π σ 1 e − ( x − μ 1 ) 2 / ( 2 σ 1 2 ) , − ∞ &lt; x &lt; ∞ p Y ( y ) = 1 2 π σ 2 e − ( y − μ 2 ) 2 / ( 2 σ 2 2 ) , − ∞ &lt; y &lt; ∞ E [ X ] = μ 1 E [ Y ] = μ 2 V a r [ X ] = σ 1 2 V a r [ Y ] = σ 2 2 C o v [ X , Y ] = ∫ − ∞ ∞ ∫ − ∞ ∞ ( x − μ 1 ) ( y − μ 2 ) p ( x , y ) d x d y = ρ σ 1 σ 2 ρ X Y = ρ p_X(x)=\frac{1}{\sqrt{2\pi}\sigma_1}e^{-(x-\mu_1)^{2}/ (2\sigma_1^{2})}, -\infty \lt x \lt \infty \\ p_Y(y)=\frac{1}{\sqrt{2\pi}\sigma_2}e^{-(y-\mu_2)^{2}/ (2\sigma_2^{2})}, -\infty \lt y \lt \infty\\ \mathbb E[X] =\mu_1 \\ \mathbb E[Y] =\mu_2 \\ Var[X] =\sigma_1^{2} \\ Var[Y]=\sigma_2^{2}\\ Cov[X,Y]=\int_{-\infty}^{\infty}\int_{-\infty}^{\infty}(x-\mu_1)(y-\mu_2)p(x,y)dxdy=\rho \sigma_1\sigma_2\\ \rho_{XY}=\rho pX(x)=2π σ11e(xμ1)2/(2σ12),<x<pY(y)=2π σ21e(yμ2)2/(2σ22),<y<E[X]=μ1E[Y]=μ2Var[X]=σ12Var[Y]=σ22Cov[X,Y]=(xμ1)(yμ2)p(x,y)dxdy=ρσ1σ2ρXY=ρ

  2. 引入矩阵:
    x ⃗ = [ x y ] μ ⃗ = [ μ 1 μ 2 ] Σ = [ c 11 c 12 c 21 c 22 ] = [ σ 1 2 ρ σ 1 σ 2 ρ σ 1 σ 2 σ 2 2 ] \mathbf{\vec x}=\begin{bmatrix} x \\ y \end{bmatrix} \quad \mathbf{\vec \mu}=\begin{bmatrix} \mu_1 \\ \mu_2 \end{bmatrix}\quad \mathbf{\Sigma}=\begin{bmatrix} c_{11} &amp;c_{12}\\ c_{21} &amp;c_{22} \end{bmatrix} = \begin{bmatrix} \sigma_1^{2} &amp; \rho \sigma_1 \sigma_2 \\ \rho \sigma_1 \sigma_2 &amp; \sigma_2^{2} \end{bmatrix} x =[xy]μ =[μ1μ2]Σ=[c11c21c12c22]=[σ12ρσ1σ2ρσ1σ2σ22]
    Σ 为 ( X , Y ) \mathbf \Sigma 为 (X,Y) Σ(X,Y)的协方差矩阵。其行列式为 det ⁡ Σ = σ 1 2 σ 2 2 ( 1 − ρ 2 ) \det \mathbf{\Sigma} =\sigma_1^{2}\sigma_2^{2}(1-\rho^{2}) detΣ=σ12σ22(1ρ2),其逆矩阵为:
    Σ − 1 = 1 det ⁡ Σ [ σ 2 2 − ρ σ 1 σ 2 − ρ σ 1 σ 2 σ 1 2 ] \mathbf{\Sigma}^{-1}=\frac{1}{\det\mathbf \Sigma}\begin{bmatrix} \sigma_2^{2} &amp; -\rho \sigma_1 \sigma_2 \\ -\rho \sigma_1 \sigma_2 &amp; \sigma_1^{2} \end{bmatrix} Σ1=detΣ1[σ22ρσ1σ2ρσ1σ2σ12]
    于是 ( X , Y ) (X,Y) (X,Y) 的概率密度函数可以写作 ( x ⃗ − μ ⃗ ) T ( \mathbf {\vec x}- \mathbf {\vec \mu})^{T} (x μ )T表示矩阵的转置:
    p ( x , x ) = 1 ( 2 π ) ( det ⁡ Σ ) 1 / 2 exp ⁡ { − 1 2 ( x ⃗ − μ ⃗ ) T Σ − 1 ( x ⃗ − μ ⃗ ) } p(x,x)=\frac{1}{(2\pi)(\det \mathbf \Sigma)^{1/ 2}}\exp\{- \frac 12 ( \mathbf {\vec x}- \mathbf {\vec \mu})^{T} \mathbf \Sigma^{-1}( \mathbf {\vec x}- \mathbf {\vec \mu})\} p(x,x)=(2π)(detΣ)1/21exp{21(x μ )TΣ1(x μ )}
    其中:

    • 均值 μ 1 , μ 2 \mu_1,\mu_2 μ1,μ2决定了曲面的位置(本例中均值都为0)。

    • 标准差 σ 1 , σ 2 \sigma_1,\sigma_2 σ1,σ2 决定了曲面的陡峭程度(本例中方差都为1)。

    • ρ \rho ρ决定了协方差矩阵的形状,从而决定了曲面的形状。

      • ρ = 0 \rho=0 ρ=0 时,协方差矩阵对角线非零,其他位置均为零。此时表示随机变量之间不相关。

        此时的联合分布概率函数形状如下图所示,曲面在$ z=0$ 平面的截面是个圆形:

        img

      • ρ = 0.5 \rho=0.5 ρ=0.5时,协方差矩阵对角线非零,其他位置非零。此时表示随机变量之间相关。

        此时的联合分布概率函数形状如下图所示,曲面在 z = 0 z=0 z=0 平面的截面是个椭圆,相当于圆形沿着直线 y=x 方向压缩 :

        img

    • ρ = 1 \rho=1 ρ=1 时,协方差矩阵对角线非零,其他位置非零。

      此时表示随机变量之间完全相关。此时的联合分布概率函数形状为:曲面在 z = 0 z=0 z=0平面的截面是直线 y = x y=x y=x,相当于圆形沿着直线 y = x y=x y=x 方向压缩成一条直线 。

      由于 ρ = 1 \rho=1 ρ=1 会导致除数为 0,因此这里给出 ρ = 0.9 \rho=0.9 ρ=0.9

      img

  3. 多维正态随机变量 ( X 1 , X 2 , ⋯ &ThinSpace; , X n ) (X_1,X_2,\cdots,X_n) (X1,X2,,Xn),引入列矩阵:
    x ⃗ = [ x 1 x 2 ⋮ x n ] μ ⃗ = [ μ 1 μ 2 ⋮ μ n ] = [ E [ X 1 ] E [ X 2 ] ⋮ E [ X n ] ] \mathbf{\vec x}=\begin{bmatrix} x_1 \\ x_2 \\ \vdots\\ x_n \end{bmatrix} \quad \mathbf{\vec \mu}=\begin{bmatrix} \mu_1 \\ \mu_2\\ \vdots\\ \mu_n \end{bmatrix}=\begin{bmatrix} \mathbb E[X_1] \\ \mathbb E[X_2] \\ \vdots\\ \mathbb E[X_n] \end{bmatrix} x =x1x2xnμ =μ1μ2μn=E[X1]E[X2]E[Xn]
    Σ 为 ( X 1 , X 2 , ⋯ &ThinSpace; , X n ) \mathbf \Sigma 为 (X_1,X_2,\cdots,X_n) Σ(X1,X2,,Xn)的协方差矩阵。则:
    p ( x 1 , x 2 , x 3 , ⋯ &ThinSpace; , x n ) = 1 ( 2 π ) n / 2 ( det ⁡ Σ ) 1 / 2 exp ⁡ { − 1 2 ( x ⃗ − μ ⃗ ) T Σ − 1 ( x ⃗ − μ ⃗ ) } p(x_1,x_2,x_3,\cdots,x_n)=\frac {1}{(2\pi)^{n/2}(\det \mathbf \Sigma)^{1/2}} \exp \{- \frac 12( \mathbf {\vec x}- \mathbf {\vec \mu})^{T}\mathbf \Sigma^{-1}( \mathbf {\vec x}- \mathbf {\vec \mu})\} p(x1,x2,x3,,xn)=(2π)n/2(detΣ)1/21exp{21(x μ )TΣ1(x μ )}
    记做 : N ( x ⃗ ; μ ⃗ , Σ ) = 1 ( 2 π ) n d e t ( Σ ) exp ⁡ ( − 1 2 ( x ⃗ − μ ⃗ ) T Σ − 1 ( x ⃗ − μ ⃗ ) ) \mathcal N(\mathbf{\vec x};\mathbf{\vec \mu},\mathbf\Sigma) =\sqrt{\frac{1}{(2\pi)^{n}det(\mathbf\Sigma)}}\exp\left(-\frac 12(\mathbf{\vec x-\vec \mu})^{T}\mathbf\Sigma^{-1}(\mathbf{\vec x-\vec \mu})\right) N(x ;μ ,Σ)=(2π)ndet(Σ)1 exp(21(x μ )TΣ1(x μ ))

  4. n 维正态变量具有下列四条性质:

    • n 维正态变量的每一个分量都是正态变量;反之,若 X 1 , X 2 , ⋯ &ThinSpace; , X n X_1,X_2,\cdots,X_n X1,X2,,Xn 都是正态变量,且相互独立,则 ( X 1 , X 2 , ⋯ &ThinSpace; , X n ) (X_1,X_2,\cdots,X_n) (X1,X2,,Xn)是 n 维正态变量。

    • n 维随机变量 ( X 1 , X 2 , ⋯ &ThinSpace; , X n ) (X_1,X_2,\cdots,X_n) (X1,X2,,Xn)服从 n 维正态分布的充要条件是: X 1 , X 2 , ⋯ &ThinSpace; , X n X_1,X_2,\cdots,X_n X1,X2,,Xn的任意线性组合: l 1 X 1 + l 2 X 2 + ⋯ + l n X n l_1X_1+l_2X_2+\cdots+l_nX_n l1X1+l2X2++lnXn服从一维正态分布,其中 l 1 , l 2 , ⋯ &ThinSpace; , l n l_1,l_2,\cdots,l_n l1,l2,,ln 不全为 0 。

    • ( X 1 , X 2 , ⋯ &ThinSpace; , X n ) (X_1,X_2,\cdots,X_n) (X1,X2,,Xn)服从 n 维正态分布,设$Y_1,Y_2,\cdots,Y_k $是 $ X_j,j=1,2,\cdots,n$的线性函数,则 ( Y 1 , Y 2 , ⋯ &ThinSpace; , Y k ) (Y_1,Y_2,\cdots,Y_k) (Y1,Y2,,Yk)也服从多维正态分布。

      这一性质称为正态变量的线性变换不变性。

    • ( X 1 , X 2 , ⋯ &ThinSpace; , X n ) (X_1,X_2,\cdots,X_n) (X1,X2,,Xn)服从 n 维正态分布,则 X 1 , X 2 , ⋯ &ThinSpace; , X n X_1,X_2,\cdots,X_n X1,X2,,Xn 相互独立 ⟺ X 1 , X 2 , ⋯ &ThinSpace; , X n \Longleftrightarrow X_1,X_2,\cdots,X_n X1,X2,,Xn两两不相关。

5.5 拉普拉斯分布

  1. 拉普拉斯分布:

    • 概率密度函数: p ( x ; μ , γ ) = 1 2 γ exp ⁡ ( − ∣ x − μ ∣ γ ) 。 p(x;\mu,\gamma)=\frac{1}{2\gamma}\exp\left(-\frac{|x-\mu|}{\gamma}\right) 。 p(x;μ,γ)=2γ1exp(γxμ)
    • 期望: E [ X ] = μ \mathbb E[X]=\mu E[X]=μ。方差: V a r [ X ] = 2 γ 2 Var[X]=2\gamma^{2} Var[X]=2γ2

    img

5.6 泊松分布

  1. 假设已知事件在单位时间(或者单位面积)内发生的平均次数为$ \lambda$ ,则泊松分布描述了:事件在单位时间(或者单位面积)内发生的具体次数为 k 的概率。

    • 概率质量函数: p ( X = k ; λ ) = e − λ λ k k ! 。 p(X=k;\lambda)=\frac{e^{-\lambda}\lambda^{k}}{k!} 。 p(X=k;λ)=k!eλλk
    • 期望: E [ X ] = λ \mathbb E[X]=\lambda E[X]=λ 。 方差: V a r [ X ] = λ Var[X]=\lambda Var[X]=λ

    img

  2. 用均匀分布模拟泊松分布:

    def make_poisson(lmd,tm):
        '''
        用均匀分布模拟泊松分布。 lmd为 lambda 参数; tm 为时间
        '''
        t=np.random.uniform(0,tm,size=lmd*tm) # 获取 lmd*tm 个事件发生的时刻
        count,tm_edges=np.histogram(t,bins=tm,range=(0,tm))#获取每个单位时间内,事件发生的次数
        max_k= lmd *2 # 要统计的最大次数
        dist,count_edges=np.histogram(count,bins=max_k,range=(0,max_k),density=True)
        x=count_edges[:-1]
        return x,dist,stats.poisson.pmf(x,lmd)  
    

    该函数:

    • 首先随机性给出了 lmd*tm个事件发生的时间(时间位于区间[0,tm])内。
    • 然后统计每个单位时间区间内,事件发生的次数。
    • 然后统计这些次数出现的频率。
    • 最后将这个频率与理论上的泊松分布的概率质量函数比较。

5.7 指数分布

  1. 若事件服从泊松分布,则该事件前后两次发生的时间间隔服从指数分布。由于时间间隔是个浮点数,因此指数分布是连续分布。

    • 概率密度函数:( t 为时间间隔)
      p ( t ; λ ) = { 0 , t &lt; 0 λ exp ⁡ ( λ t ) , t ≥ 0 p(t;\lambda)=\begin{cases} 0,&amp; t\lt0\\ \frac{\lambda}{\exp(\lambda t)},&amp; t\ge0\\ \end{cases} p(t;λ)={0,exp(λt)λ,t<0t0

    • 期望: E [ t ] = 1 λ \mathbb E[t] = \frac 1\lambda E[t]=λ1 。方差:Var[t]= 1 λ 2 \frac{1}{\lambda^2} λ21

      img

  2. 用均匀分布模拟指数分布:

    def make_expon(lmd,tm):
        '''
        用均匀分布模拟指数分布。 lmd为 lambda 参数; tm 为时间 
        '''
        t=np.random.uniform(0,tm,size=lmd*tm) # 获取 lmd*tm 个事件发生的时刻
        sorted_t=np.sort(t) #时刻升序排列
        delt_t=sorted_t[1:]-sorted_t[:-1] #间隔序列
        dist,edges=np.histogram(delt_t,bins="auto",density=True)
        x=edges[:-1]
        return x,dist,stats.expon.pdf(x,loc=0,scale=1/lmd) #scale 为 1/lambda
    

5.8 伽马分布

  1. 若事件服从泊松分布,则事件第$ i$ 次发生和第 $ i+k $次发生的时间间隔为伽玛分布。由于时间间隔是个浮点数,因此指数分布是连续分布。

    • 概率密度函数: p ( t ; λ , k ) = t ( k − 1 ) λ k e ( − λ t ) Γ ( k ) p(t;\lambda,k)=\frac{t^{(k-1)}\lambda^{k}e^{(-\lambda t)}}{\Gamma(k)} p(t;λ,k)=Γ(k)t(k1)λke(λt), t 为时间间隔 。
    • 期望: E [ t ] = k λ \mathbb E[t]=\frac {k}{\lambda} E[t]=λk。方差: V a r [ t ] = k λ 2 Var[t]=\frac{k}{\lambda^2} Var[t]=λ2k
  2. 上面的定义中 k k k必须是整数。事实上,若随机变量 X X X 服从伽马分布,则其概率密度函数为:
    p ( X ; α , β ) = β α Γ ( α ) X α − 1 e − β X , X &gt; 0 p(X;\alpha,\beta)=\frac{\beta^{\alpha}}{\Gamma(\alpha)}X^{\alpha-1}e^{-\beta X},\quad X\gt 0 p(X;α,β)=Γ(α)βαXα1eβX,X>0
    记做 Γ ( α , β ) \Gamma(\alpha,\beta) Γ(α,β)。其中 α \alpha α 称作形状参数, β \beta β称作尺度参数。

    • 期望 E [ X ] = α β \mathbb E[X]=\frac \alpha\beta E[X]=βα ,方差 V a r [ X ] = α β 2 Var[X]=\frac{\alpha}{\beta^2} Var[X]=β2α
    • α ≤ 1 \alpha\le 1 α1 , p ( X ; α , β ) ,p(X;\alpha,\beta) p(X;α,β)为递减函数。
    • α &gt; 1 \alpha \gt 1 α>1 , p ( X ; α , β ) ,p(X;\alpha,\beta) p(X;α,β)为单峰函数。

    img

  3. 性质:

    • β = n \beta=n β=n时, 为 Erlang分布。
    • α = 1 , β = λ \alpha=1,\beta=\lambda α=1,β=λ 时,就是参数为 λ \lambda λ的指数分布。
    • α = n 2 , β = 1 2 \alpha=\frac n2,\beta=\frac 12 α=2n,β=21 时,就是常用的卡方分布。
  4. 伽马分布的可加性:设随机变量 X 1 , X 2 , ⋯ &ThinSpace; , X n X_1,X_2,\cdots,X_n X1,X2,,Xn相互独立并且都服从伽马分布: X i ∼ Γ ( α i , β ) X_i \sim \Gamma(\alpha_i,\beta) XiΓ(αi,β),则:

    X 1 + X 2 + ⋯ + X n ∼ Γ ( α 1 + α 2 + ⋯ + α n , β ) X_1+X_2+\cdots+X_n\sim \Gamma(\alpha_1+\alpha_2+\cdots+\alpha_n,\beta) X1+X2++XnΓ(α1+α2++αn,β)

  5. 用均匀分布模拟伽玛分布:

    def make_gamma(lmd,tm,k):
        '''
        用均匀分布模拟伽玛分布。 lmd为 lambda 参数; tm 为时间;k 为 k 参数
        '''
        t=np.random.uniform(0,tm,size=lmd*tm) # 获取 lmd*tm 个事件发生的时刻
        sorted_t=np.sort(t) #时刻升序排列
        delt_t=sorted_t[k:]-sorted_t[:-k] #间隔序列
        dist,edges=np.histogram(delt_t,bins="auto",density=True)
        x=edges[:-1]
        return x,dist,stats.gamma.pdf(x,loc=0,scale=1/lmd,a=k) #scale 为 1/lambda,a 为 k
    

5.9 贝塔分布

  1. 贝塔分布是定义在 (0,1) 之间的连续概率分布。

    如果随机变量 X 服从贝塔分布,则其概率密度函数为:
    p ( X , α , β ) = Γ ( α + β ) Γ ( α ) Γ ( β ) X α − 1 ( 1 − X ) β − 1 = 1 B ( α , β ) X α − 1 ( 1 − X ) β − 1 , 0 ≤ X &lt; 1 p(X,\alpha,\beta) = \frac{\Gamma(\alpha+\beta)}{\Gamma(\alpha)\Gamma(\beta)}X^{\alpha-1}(1-X)^{\beta-1}=\frac{1}{B(\alpha,\beta)}X^{\alpha-1}(1-X)^{\beta-1},\quad 0\le X\lt 1 p(X,α,β)=Γ(α)Γ(β)Γ(α+β)Xα1(1X)β1=B(α,β)1Xα1(1X)β1,0X<1
    记做 B e t a ( α , β ) Beta(\alpha,\beta) Beta(α,β)

    • 众数为: α − 1 α + β − 2 \frac{\alpha-1}{\alpha+\beta-2} α+β2α1
    • 期望为: E [ X ] = α α + β \mathbb E[X] = \frac{\alpha}{\alpha+\beta} E[X]=α+βα ,方差为: V a r [ X ] = α β ( α + β ) 2 ( α + β + 1 ) 。 Var[X]=\frac{\alpha\beta}{(\alpha+\beta)^2(\alpha+\beta+1)}。 Var[X]=(α+β)2(α+β+1)αβ

    img

5.10 狄拉克分布

  1. 狄拉克分布:假设所有的概率都集中在一点 μ \mu μ 上,则对应的概率密度函数为: p ( x ) = δ ( x − μ ) p(x)=\delta(x-\mu) p(x)=δ(xμ)

    其中$ \delta(\cdot) $为狄拉克函数,其性质为:

    δ ( x ) = 0 , ∀ x ≠ 0 ∫ − ∞ ∞ δ ( x ) d x = 1 \delta(x)=0,\forall x\neq 0\\ \int_{-\infty}^{\infty}\delta(x)dx=1 δ(x)=0,x̸=0δ(x)dx=1

  2. 狄拉克分布的一个典型用途就是定义连续型随机变量的经验分布函数。假设数据集中有样本 x ⃗ 1 , x ⃗ 2 , ⋯ &ThinSpace; , x ⃗ N \mathbf{\vec x}_1,\mathbf{\vec x}_2,\cdots,\mathbf{\vec x}_N x 1,x 2,,x N ,则定义经验分布函数:

    p ^ ( x ⃗ ) = 1 N ∑ i = 1 N δ ( x ⃗ − x ⃗ i ) \hat p(\mathbf{\vec x})=\frac 1N\sum_{i=1}^{N}\delta(\mathbf{\vec x}-\mathbf{\vec x}_i) p^(x )=N1i=1Nδ(x x i)

    它就是对每个样本赋予了一个概率质量$ \frac 1N$ 。

  3. 对于离散型随机变量的经验分布,则经验分布函数就是multinoulli分布,它简单地等于训练集中的经验频率。

  4. 经验分布的两个作用:

    • 通过查看训练集样本的经验分布,从而指定该训练集的样本采样的分布(保证采样之后的分布不失真)。
    • 经验分布就是使得训练数据的可能性最大化的概率密度函数。

5.11 多项式分布与狄里克雷分布

  1. 多项式分布的质量密度函数:
    M u l t ( m 1 , m 2 , ⋯ &ThinSpace; , m K ; μ ⃗ , N ) = N ! m 1 ! m 2 ! ⋯ m K ! ∏ k = 1 K μ k m k Mult(m_1,m_2,\cdots,m_K;\vec\mu,N)=\frac{N!}{m_1!m_2!\cdots m_K!}\prod_{k=1}^{K}\mu_k^{m_k} Mult(m1,m2,,mK;μ ,N)=m1!m2!mK!N!k=1Kμkmk
    它是 ( μ 1 + μ 2 + ⋯ + μ K ) m 1 + m 2 + ⋯ + m K (\mu_1+\mu_2+\cdots+\mu_K)^{m_1+m_2+\cdots+m_K} (μ1+μ2++μK)m1+m2++mK的多项式展开的形式。

  2. 狄利克雷分布的概率密度函数:
    D i r ( μ ⃗ ; α ⃗ ) = Γ ( ∑ k = 1 K α k ) ∑ k = 1 K Γ ( α k ) ∏ k = 1 K μ k α k − 1 Dir(\vec\mu;\vec\alpha)=\frac{\Gamma(\sum_{k=1}^{K}\alpha_k)}{\sum_{k=1}^{K}\Gamma(\alpha_k)}\prod_{k=1}^{K}\mu_k^{\alpha_k-1} Dir(μ ;α )=k=1KΓ(αk)Γ(k=1Kαk)k=1Kμkαk1

  3. 可以看到,多项式分布与狄里克雷分布的概率密度函数非常相似,区别仅仅在于前面的归一化项:

    • 多项式分布是针对离散型随机变量,通过求和获取概率。
    • 狄里克雷分布时针对连续型随机变量,通过求积分来获取概率。

5.12 混合概率分布

  1. 混合概率分布:它组合了其他几个分量的分布来组成。

    • 在每次生成样本中,首先通过multinoulli分布来决定选用哪个分量,然后由该分量的分布函数来生成样本。

    • 其概率分布函数为:
      p ( x ) = ∑ i P ( c = i ) p ( x ∣ c = i ) p(x)=\sum_{i}P(c=i)p(x\mid c=i) p(x)=iP(c=i)p(xc=i)
      其中 p(c=i) 为一个multinoulli分布,c 的取值范围就是各分量的编号。

  2. 前面介绍的连续型随机变量的经验分布函数就是一个混合概率分布的例子,此时$ p(c=i)=\frac 1N $。

  3. 混合概率分布可以通过简单的概率分布创建更复杂的概率分布。一个常见的例子是混合高斯模型,其中 p ( x ∣ c = i ) p(x\mid c=i) p(xc=i)为高斯模型。每个分量都有对应的参数 ( μ ⃗ i , Σ i ) 。 (\mathbf{\vec \mu}_i,\mathbf \Sigma_i) 。 (μ i,Σi)

    • 有些混合高斯模型有更强的约束,如 ∀ i , Σ i = Σ \forall i,\mathbf \Sigma_i=\mathbf\Sigma i,Σi=Σ ,更进一步还可以要求 Σ \mathbf\Sigma Σ为一个对角矩阵。
    • 混合高斯模型是一个通用的概率密度函数逼近工具。任何平滑的概率密度函数都可以通过足够多分量的混合高斯模型来逼近。

六、先验分布与后验分布

  1. 在贝叶斯学派中,先验分布+数据(似然)= 后验分布

  2. 例如:假设需要识别一大箱苹果中的好苹果、坏苹果的概率。

    • 根据你对苹果好、坏的认知,给出先验分布为:50个好苹果和50个坏苹果。

    • 现在你拿出10个苹果,发现有:8个好苹果,2个坏苹果。

      根据数据,你得到后验分布为:58个好苹果,52个坏苹果

    • 再拿出10个苹果,发现有:9个好苹果,1个坏苹果。

      根据数据,你得到后验分布为:67个好苹果,53个坏苹果

    • 这样不断重复下去,不断更新后验分布。当一箱苹果清点完毕,则得到了最终的后验分布。

在这里:

  • 如果不使用先验分布,仅仅清点这箱苹果中的好坏,则得到的分布只能代表这一箱苹果。
  • 采用了先验分布之后得到的分布,可以认为是所有箱子里的苹果的分布。
  • 当采用先验分布时:给出的好、坏苹果的个数(也就是频数)越大,则先验分布越占主导地位。
  1. 假设好苹果的概率为$ p $,则抽取 N 个苹果中,好苹果个数为 k 个的概率为一个二项分布:

    B i n o m ( k ∣ p ; N ) = C N k p k ( 1 − p ) N − k Binom(k\mid p;N)=C_N^kp^k(1-p)^{N-k} Binom(kp;N)=CNkpk(1p)Nk

    其中 C N k C_N^k CNk 为组合数。

  2. 现在的问题是:好苹果的概率 p p p 不再固定,而是服从一个分布。

    假设好苹果的概率 p p p的先验分布为贝塔分布: B e t a ( p ; α , β ) = Γ ( α + β ) Γ ( α ) Γ ( β ) p α − 1 ( 1 − p ) β − 1 Beta(p; \alpha,\beta)=\frac{\Gamma(\alpha+\beta)}{\Gamma(\alpha)\Gamma(\beta)}p^{\alpha-1}(1-p)^{\beta-1} Beta(p;α,β)=Γ(α)Γ(β)Γ(α+β)pα1(1p)β1

    则后验概率为:
    P ( p ∣ k ; N , α , β ) = P ( k ∣ p ; N ) × P ( p ; α , β ) P ( k ; N , α , β ) ∝ P ( k ∣ p ; N ) × P ( p ; α , β ) = C N k p k ( 1 − p ) N − k × Γ ( α + β ) Γ ( α ) Γ ( β ) p α − 1 ( 1 − p ) β − 1 ∝ p k + α − 1 ( 1 − p ) N − k + β − 1 P(p\mid k; N,\alpha,\beta)=\frac{P(k\mid p; N)\times P(p; \alpha,\beta)}{P(k; N,\alpha,\beta)} \\ \propto P(k\mid p; N)\times P(p; \alpha,\beta)=C_N^kp^k(1-p)^{N-k}\times \frac{\Gamma(\alpha+\beta)}{\Gamma(\alpha)\Gamma(\beta)}p^{\alpha-1}(1-p)^{\beta-1}\\ \propto p^{k+\alpha-1}(1-p)^{N-k+\beta-1} P(pk;N,α,β)=P(k;N,α,β)P(kp;N)×P(p;α,β)P(kp;N)×P(p;α,β)=CNkpk(1p)Nk×Γ(α)Γ(β)Γ(α+β)pα1(1p)β1pk+α1(1p)Nk+β1
    归一化之后,得到后验概率为:
    P ( p ∣ k ; N , α , β ) = Γ ( α + β + N ) Γ ( α + k ) Γ ( β + N − k ) p k + α − 1 ( 1 − p ) N − k + β − 1 P(p\mid k;N,\alpha,\beta)=\frac{\Gamma(\alpha+\beta+N)}{\Gamma(\alpha+k)\Gamma(\beta+N-k)}p^{k+\alpha-1}(1-p)^{N-k+\beta-1} P(pk;N,α,β)=Γ(α+k)Γ(β+Nk)Γ(α+β+N)pk+α1(1p)Nk+β1

  3. 好苹果概率 p 的先验分布的期望为: E [ p ] = α α + β \mathbb E[p]=\frac{\alpha}{\alpha+\beta} E[p]=α+βα 。好苹果概率 p 的后验分布的期望为: E [ p ∣ k ] = α + k α + β + N 。 \mathbb E[p\mid k]=\frac{\alpha+k}{\alpha+\beta+N} 。 E[pk]=α+β+Nα+k

    • 根据上述例子所述:
      • 好苹果的先验概率的期望为 50 50 + 50 = 1 2 \frac {50}{50+50}=\frac 12 50+5050=21
      • 进行第一轮数据校验之后,好苹果的后验概率的期望为 50 + 8 50 + 50 + 10 = 58 110 \frac {50+8}{50+50+10}=\frac {58}{110} 50+50+1050+8=11058
    • 如果将$ \alpha$ 视为先验的好苹果数量, β \beta β 视为先验的坏苹果数量, $ N$ 表示箱子中苹果的数量,$ k $表示箱子中的好苹果数量(相应的, $ N-k $就是箱子中坏苹果的数量)。则:好苹果的先验概率分布的期望、后验概率分布的期望符合人们的生活经验。
    • 这里使用先验分布和后验分布的期望,因为 p 是一个随机变量。若想通过一个数值来刻画好苹果的可能性,则用期望较好。
  4. 更一般的,如果苹果不仅仅分为好、坏两种,而是分作尺寸1、尺寸2、...尺寸K等。则 N 个苹果中,有$ m_1 $个尺寸1的苹果、 $ m_2$ 个尺寸2的苹果…$ m_K$ 个尺寸 K 的苹果的概率服从多项式分布:
    M u l t ( m 1 , m 2 , ⋯ &ThinSpace; , m K ; μ ⃗ , N ) = N ! m 1 ! m 2 ! ⋯ m K ! ∏ k = 1 K μ k m k Mult(m_1,m_2,\cdots,m_K;\vec\mu,N)=\frac{N!}{m_1!m_2!\cdots m_K!}\prod_{k=1}^{K}\mu_k^{m_k} Mult(m1,m2,,mK;μ ,N)=m1!m2!mK!N!k=1Kμkmk
    其中苹果为尺寸1的概率为$ \mu_1$ , 尺寸2的概率为 μ 2 \mu_2 μ2 ,… 尺寸 K 的概率为 μ K \mu_K μK N = ∑ k = 1 K m k N=\sum_{k=1}^Km_k N=k=1Kmk

    • 假设苹果尺寸的先验概率分布为狄利克雷分布:
      D i r ( μ ⃗ ; α ⃗ ) = Γ ( ∑ k = 1 K α k ) ∑ k = 1 K Γ ( α k ) ∏ k = 1 K μ k α k − 1 。 Dir(\vec\mu;\vec\alpha)=\frac{\Gamma(\sum_{k=1}^{K}\alpha_k)}{\sum_{k=1}^{K}\Gamma(\alpha_k)}\prod_{k=1}^{K}\mu_k^{\alpha_k-1} 。 Dir(μ ;α )=k=1KΓ(αk)Γ(k=1Kαk)k=1Kμkαk1
      苹果尺寸的先验概率分布的期望为: E [ μ ⃗ ] = ( α 1 ∑ k = 1 K α k , α 2 ∑ k = 1 K α k , ⋯ &ThinSpace; , α K ∑ k = 1 K α k ) 。 \mathbb E[\vec\mu]=\left(\frac{\alpha_1}{\sum_{k=1}^K\alpha_k},\frac{\alpha_2}{\sum_{k=1}^K\alpha_k},\cdots,\frac{\alpha_K}{\sum_{k=1}^K\alpha_k}\right) 。 E[μ ]=(k=1Kαkα1,k=1Kαkα2,,k=1KαkαK)

    • 则苹果尺寸的后验概率分布也为狄里克雷分布: D i r ( μ ⃗ ; α ⃗ + m ⃗ ) = Γ ( N + ∑ k = 1 K α k ) ∑ k = 1 K Γ ( α k + m k ) ∏ k = 1 K μ k α k + m k − 1 。 Dir(\vec\mu;\vec\alpha+\mathbf{\vec m})=\frac{\Gamma(N+\sum_{k=1}^{K}\alpha_k)}{\sum_{k=1}^{K}\Gamma(\alpha_k+m_k)}\prod_{k=1}^{K}\mu_k^{\alpha_k+m_k-1} 。 Dir(μ ;α +m )=k=1KΓ(αk+mk)Γ(N+k=1Kαk)k=1Kμkαk+mk1

      苹果尺寸的后验概率分布的期望为: E [ μ ⃗ ] = ( α 1 + m 1 N + ∑ k = 1 K α k , α 2 + m 2 N + ∑ k = 1 K α k , ⋯ &ThinSpace; , α K + m K N + ∑ k = 1 K α k ) 。 \mathbb E[\vec\mu]=\left(\frac{\alpha_1+m_1}{N+\sum_{k=1}^K\alpha_k},\frac{\alpha_2+m_2}{N+\sum_{k=1}^K\alpha_k},\cdots,\frac{\alpha_K+m_K}{N+\sum_{k=1}^K\alpha_k}\right) 。 E[μ ]=(N+k=1Kαkα1+m1,N+k=1Kαkα2+m2,,N+k=1KαkαK+mK)

七、信息论

  1. 信息论背后的原理是:从不太可能发生的事件中能学到更多的有用信息。

    • 发生可能性较大的事件包含较少的信息。
    • 发生可能性较小的事件包含较多的信息。
    • 独立事件包含额外的信息 。
  2. 对于事件 $ X=x$ ,定义自信息self-information为: I ( x ) = − log ⁡ P ( x ) I(x)=-\log P(x) I(x)=logP(x)

    自信息仅仅处理单个输出,但是如果计算自信息的期望,它就是熵:
    H ( X ) = E X ∼ P ( X ) [ I ( x ) ] = − E X ∼ P ( X ) [ log ⁡ P ( x ) ] H(X)=\mathbb E_{X\sim P(X)}[I(x)]=-\mathbb E_{X\sim P(X)}[\log P(x)] H(X)=EXP(X)[I(x)]=EXP(X)[logP(x)]
    记作 H§。

    • 熵刻画了按照真实分布 P 来识别一个样本所需要的编码长度的期望(即平均编码长度)。

      如:含有4个字母 (A,B,C,D) 的样本集中,真实分布 P = ( 1 2 , 1 2 , 0 , 0 ) P=(\frac 12,\frac 12,0,0) P=(21,21,0,0),则只需要1位编码即可识别样本。

    • 对于离散型随机变量 $ X,$假设其取值集合大小为 $ K$ ,则可以证明: 0 ≤ H ( X ) ≤ log ⁡ K 0\le H(X)\le \log K 0H(X)logK

  3. 对于随机变量 Y Y Y X X X ,条件熵 H ( Y ∣ X ) H(Y\mid X) H(YX)表示:已知随机变量 X X X的条件下,随机变量 Y Y Y的不确定性。

    它定义为: X X X 给定条件下 Y Y Y 的条件概率分布的熵对 X 的期望:
    H ( Y ∣ X ) = E X ∼ P ( X ) [ H ( Y ∣ X = x ) ] = − E ( X , Y ) ∼ P ( X , Y ) log ⁡ P ( Y ∣ X ) H(Y\mid X) = \mathbb E_{X\sim P(X)}[ H(Y\mid X=x)]=-\mathbb E_{(X,Y)\sim P(X,Y)} \log P(Y\mid X) H(YX)=EXP(X)[H(YX=x)]=E(X,Y)P(X,Y)logP(YX)

    • 对于离散型随机变量,有:
      H ( Y ∣ X ) = ∑ x p ( x ) H ( Y ∣ X = x ) = − ∑ x ∑ y p ( x , y ) log ⁡ p ( y ∣ x ) H(Y\mid X) = \sum_xp(x) H(Y\mid X=x)=-\sum_x\sum_y p(x,y)\log p(y\mid x) H(YX)=xp(x)H(YX=x)=xyp(x,y)logp(yx)

    • 对于连续型随机变量,有:
      H ( Y ∣ X ) = ∫ p ( x ) H ( Y ∣ X = x ) d x = − ∫ ∫ p ( x , y ) log ⁡ p ( y ∣ x ) d x d y H(Y\mid X) = \int p(x) H(Y\mid X=x) dx=-\int\int p(x,y)\log p(y\mid x) dx dy H(YX)=p(x)H(YX=x)dx=p(x,y)logp(yx)dxdy

  4. 根据定义可以证明: H ( X , Y ) = H ( Y ∣ X ) + H ( X ) H(X,Y)=H(Y\mid X)+H(X) H(X,Y)=H(YX)+H(X)

    即:描述 X 和 Y 所需要的信息是:描述 X 所需要的信息加上给定 X 条件下描述 Y 所需的额外信息。

  5. KL散度(也称作相对熵):对于给定的随机变量 X,它的两个概率分布函数 P(X) 和 Q(X) 的区别可以用 KL散度来度量:
    D K L ( P ∣ ∣ Q ) = E X ∼ P ( X ) [ log ⁡ P ( x ) Q ( x ) ] = E X ∼ P ( X ) [ log ⁡ P ( x ) − log ⁡ Q ( x ) ] D_{KL}(P||Q)=\mathbb E_{X\sim P(X)}\left[\log \frac{P(x)}{Q(x)}\right]=\mathbb E_{X\sim P(X)}\left[\log P(x) -\log Q(x) \right] DKL(PQ)=EXP(X)[logQ(x)P(x)]=EXP(X)[logP(x)logQ(x)]

    • KL散度非负:当它为 0 时,当且仅当 PQ是同一个分布(对于离散型随机变量),或者两个分布几乎处处相等(对于连续型随机变量)。

    • KL散度不对称: D K L ( P ∣ ∣ Q ) ≠ D K L ( Q ∣ ∣ P ) 。 D_{KL}(P||Q) \neq D_{KL}(Q||P) 。 DKL(PQ)̸=DKL(QP)

      直观上看对于 D K L ( P ∣ ∣ Q ) D_{KL}(P||Q) DKL(PQ),当 P ( x ) P(x) P(x)较大的地方, Q ( x ) Q(x) Q(x)也应该较大,这样才能使得 P ( x ) log ⁡ P ( x ) Q ( x ) P(x)\log\frac {P(x)}{Q(x)} P(x)logQ(x)P(x)较小。

      对于 P ( x ) P(x) P(x)较小的地方,$Q(x) 就 没 有 什 么 限 制 就 能 够 使 得 就没有什么限制就能够使得 使P(x)\log\frac {P(x)}{Q(x)}$较小。这就是KL散度不满足对称性的原因。

  6. 交叉熵cross-entropy H ( P , Q ) = H ( P ) + D K L ( P ∣ ∣ Q ) = − E X ∼ P ( X ) log ⁡ Q ( x ) 。 H(P,Q)=H(P)+D_{KL}(P||Q)=-\mathbb E_{X\sim P(X)}\log Q(x)。 H(P,Q)=H(P)+DKL(PQ)=EXP(X)logQ(x)

    • 交叉熵刻画了使用错误分布Q 来表示真实分布 P 中的样本的平均编码长度。
    • D K L ( P ∣ ∣ Q ) D_{KL(P||Q)} DKL(PQ)刻画了错误分布Q 编码真实分布 P 带来的平均编码长度的增量。
  7. 示例:假设真实分布 P 为混合高斯分布,它由两个高斯分布的分量组成。如果希望用普通的高斯分布 Q 来近似 P ,则有两种方案:
    Q 1 ∗ = arg ⁡ min ⁡ Q D K L ( P ∣ ∣ Q ) Q 2 ∗ = arg ⁡ min ⁡ Q D K L ( Q ∣ ∣ P ) Q_1^* = \arg\min _Q D_{KL}(P||Q)\\ Q_2^* = \arg\min _Q D_{KL}(Q||P) Q1=argQminDKL(PQ)Q2=argQminDKL(QP)
    img

    • 如果选择 Q 1 ∗ Q_1^* Q1,则:

      • P ( x ) P(x) P(x)较大的时候 Q ( x ) Q(x) Q(x)也必须较大 。如果 P ( x ) P(x) P(x)较大时 Q ( x ) Q(x) Q(x)较小,则 P ( x ) log ⁡ P ( x ) Q ( x ) P(x) \log \frac{P(x)}{Q(x)} P(x)logQ(x)P(x)较大。
      • 当 $P(x) 较 小 的 时 候 较小的时候 Q(x) $可以较大,也可以较小。

      因此 Q 1 ∗ Q_1^* Q1会贴近 P ( x ) P(x) P(x)的峰值。由于 P ( x ) P(x) P(x)的峰值有两个,因此 Q 1 ∗ Q_1^* Q1无法偏向任意一个峰值,最终结果就是 Q 1 ∗ Q_1^* Q1的峰值在 P ( x ) P(x) P(x)的两个峰值之间。

      img

    • 如果选择 Q 2 ∗ Q_2^* Q2,则:

      • P ( x ) P(x) P(x)较小的时候, Q ( x ) Q(x) Q(x)必须较小。如果 P ( x ) P(x) P(x)较小的时 Q ( x ) Q(x) Q(x)较大,则 Q ( x ) log ⁡ Q ( x ) P ( x ) Q(x)\log\frac{Q(x)}{P(x)} Q(x)logP(x)Q(x)较大。
      • P ( x ) P(x) P(x)较大的时候, Q ( x ) Q(x) Q(x)可以较大,也可以较小。

      因此 Q 2 ∗ Q_2^* Q2会贴近 P ( x ) P(x) P(x)的谷值。最终结果就是 Q 2 ∗ Q_2^* Q2会贴合$P(x) $峰值的任何一个。

      img

    • 绝大多数场合使用 D K L ( P ∣ ∣ Q ) D_{KL}(P||Q) DKL(PQ),原因是:当用分布 Q 拟合 P 时我们希望对于常见的事件,二者概率相差不大。

八、其它

  1. 假设随机变量 X , Y X,Y X,Y 满足 Y = g ( X ) Y=g(X) Y=g(X),且函数 g ( ⋅ ) g(\cdot) g()满足:处处连续、可导、且存在反函数。 则有:
    p X ( x ) = p Y ( g ( x ) ) ∣ ∂ g ( x ) ∂ x ∣ p_X(x)=p_Y(g(x)) \left|\frac{\partial g(x)}{\partial x}\right| pX(x)=pY(g(x))xg(x)
    或者等价地(其中 g − 1 ( ⋅ ) g^{-1}(\cdot) g1()为反函数):
    p Y ( y ) = p X ( g − 1 ( y ) ) ∣ ∂ x ∂ y ∣ p_Y(y)=p_X(g^{-1}(y)) \left|\frac{\partial x}{\partial y}\right| pY(y)=pX(g1(y))yx

    • 如果扩展到高维空间,则有:
      p X ( x ⃗ ) = p Y ( g ( x ⃗ ) ) ∣ det ⁡ ( ∂ g ( x ⃗ ) ∂ x ⃗ ) ∣ p_X(\mathbf{\vec x})=p_Y(g(\mathbf{\vec x})) \left|\det\left(\frac{\partial g(\mathbf{\vec x})}{\partial \mathbf{\vec x}}\right)\right| pX(x )=pY(g(x ))det(x g(x ))

    • 并不是 p Y ( y ) = p X ( g − 1 ( y ) ) p_Y(y)=p_X(g^{-1}(y)) pY(y)=pX(g1(y)),这是因为 g ( ⋅ ) g(\cdot) g()引起了空间扭曲,从而导致 ∫ p X ( g ( x ) ) d x ≠ 1 \int p_X(g(x))dx \neq 1 pX(g(x))dx̸=1

      根据 ∣ p Y ( g ( x ) ) d y ∣ = ∣ p X ( x ) d x ∣ |p_Y(g(x))dy|=|p_X(x)dx| pY(g(x))dy=pX(x)dx,求解该方程,即得到上述解。

  2. 机器学习中不确定性有三个来源:

    • 模型本身固有的随机性。如:量子力学中的粒子动力学方程。

    • 不完全的观测。即使是确定性系统,当无法观测所有驱动变量时,结果也是随机的。

    • 不完全建模。有时必须放弃一些观测信息。

      如机器人建模中:虽然可以精确观察机器人周围每个对象的位置,但在预测这些对象将来的位置时,对空间进行了离散化。则位置预测将带有不确定性。

  • 3
    点赞
  • 21
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值