概率空间与概率分布

σ-代数

X\ 非空集合\mathcal{F} 中的元素是 X 的子集合,满足以下条件的集合系\mathcal{F}称为X\ 上的一个σ代数

X  \mathcal{F}中;
如果一个集合 A \mathcal{F}中,那么它的 差集  A^c 也在  \mathcal{F}中;
如果有可数个集合 A_1 , A_2, \cdots , A_n \cdots都在  \mathcal{F}中,那么它们的 联集也在  \mathcal{F}中。

用数学语言来表示,就是

X \in \mathcal{F};
A \in \mathcal{F} \Longrightarrow A^c \in \mathcal{F};
(\forall n\in \mathbb{N}~ ~ ~A_n \in\mathcal{F}) \Longrightarrow \bigcup\limits_{n=1}^ \infty A_n\in \mathcal{F}.

不借助逻辑符号的话,也可以使用如下更简洁的定义:设X\ 非空集合。则X\ 上的一个σ代数是指其幂集的子集合 \mathcal{F} 对有限个差集交集跟可数个并集这三种运算都依然属于 \mathcal{F},也就是说 \mathcal{F} 对这三运算是封闭(closed)的 。

在测度论里 \left(X,\mathcal{F}\right)称为一个可测空间。 集合族 \mathcal{F} 中的元素,也就是 X 的某子集,称为可测集合。而在概率论中,这些集合被称为随机事件

例子

  • 有两个σ-代数的简单例子,它们分别是:
    1. X上含集合最少的σ代数\{ \emptyset, X \};和
    2. X上含集合最多的σ代数是X幂集2^{X}:=\{ A: A \subset X \}
  • 假设集合X=\{a,b,c,d\},那么 \mathcal{F} = \{\varnothing, \{a\}, \{b, c, d\}, X\} 是集合X上的一个σ代数。这也是所有包含 \{a\}的σ代数中最“小”的一个。

概率空间

概率空间(ΩFP)是一个总测度为1的测度空间(即P(Ω)=1).

第一项Ω是一个非空集合,有时称作“样本空间”。Ω 的集合元素称作“样本输出”,可写作ω。

第二项F是样本空间Ω幂集的一个非空子集。F的集合元素称为事件Σ。事件Σ是样本空间Ω的子集。集合F必须是一个σ-代数

  1. \Omega{\in}\mathcal{F}
  2. A{\in}\mathcal{F},则\bar{A}{\in}\mathcal{F}
  3. A_n{\in}\mathcal{F}n=1,2,...,则\bigcup_{n=1}^{\infty}A_n{\in}\mathcal{F}

(ΩF)合起来称为可测空间。事件就是样本输出的集合,在此集合上可定义其概率。

第三项P称为概率,或者概率测度。这是一个从集合F到实数域R的函数,P:\;F{\mapsto}R。每个事件都被此函数赋予一个0和1之间的概率值

概率测度经常以黑体表示,例如\mathbb P\mathbb Q,也可用符号"Pr"来表示。

分布函数的性质

对于特定的随机变量  X,其分布函数 F_X是单调不减及右连续,而且 F_X(-\infty)=0  F_X(\infty)=1 。这些性质反过来也描述了所有可能成为分布函数的函数:设 F:[-\infty,\infty] \to [0,1], F(-\infty)=0, F(\infty)=1且单调不减、右连续,则存在概率空间(\Omega, \mathcal{F}, \mathbb{P})及其上的随机变量 X ,使得 F 是 X 的分布函数,即 F_X=FP概率测度X随机变量则函数 F(x) = P(X \le x)     (x\in\R) 称为X的概率分布函数.如果将X看成是数轴上的随机点的坐标,那么,分布函数F(x)x处的函数值就表示X落在区间(-\infty,x]上的概率。

二项分布

概率论统计学中,二项分布n独立的是/非试验中成功的次数的离散概率分布,其中每次试验的成功概率p。这样的单次成功/失败试验又称为伯努利试验。实际上,当n = 1时,二项分布就是伯努利分布。二项分布是显著性差异二项试验的基础。

概率质量函数

一般地,如果随机变量\mathit{X}服从参数为\mathit{n}\mathit{p}的二项分布,我们记X \sim b(n,p)X \sim B(n,p).n次试验中正好得到k次成功的概率由概率质量函数给出:

 f(k;n,p) = \Pr(K = k) = {n\choose k}p^k(1-p)^{n-k}

对于k = 0, 1, 2, ..., n,其中{n\choose k}=\frac{n!}{k!(n-k)!}

二项式系数(这就是二项分布的名称的由来),又记为C(nk),nCk,或nCk。该公式可以用以下方法理解:我们希望有k次成功(pk)和n − k次失败(1 − p)n − k。然而,k次成功可以在n次试验的任何地方出现,而把k次成功分布在n次试验中共有C(nk)个不同的方法。

在制造二项分布概率的参考表格时,通常表格中只填上n/2个值。这是因为k > n/2时的概率可以从它的补集计算出:

f(k;n,p)=f(n-k;n,1-p). \,

因此,我们要看另外一个k和另外一个p(二项分布一般不是对称的)。然而,它的表现不是任意的。总存在一个整数M,满足

(n+1)p-1 < M \leq (n+1)p. \,

作为k的函数,表达式ƒ(knp)当k < M时单调递增,k > M时单调递减,只有当(n + 1)p是整数时例外。在这时,有两个值使ƒ达到最大:(n + 1)p和(n + 1)p − 1。M是伯努利试验的最可能的结果,称为众数。注意它发生的概率可以很小。

累积分布函数

累积分布函数可以表示为:

F(x;n,p) = \Pr(X \le x) = \sum_{i=0}^{\lfloor x \rfloor} {n\choose i}p^i(1-p)^{n-i}.

其中\scriptstyle \lfloor x\rfloor\,是小于或等于x最大整数

它也可以用正则化不完全贝塔函数来表示:

\begin{align}F(k;n,p) & = \Pr(X \le k) = I_{1-p}(n-k, k+1) \\& = (n-k) {n \choose k} \int_0^{1-p} t^{n-k-1} (1-t)^k \, dt.\end{align}

期望和方差

如果X ~ B(np)(也就是说,X是服从二项分布的随机变量),那么X期望值

    \operatorname{E}[X] = np

方差

    \operatorname{Var}[X] = np(1 - p).

这个事实很容易证明。首先假设有一个伯努利试验。试验有两个可能的结果:1和0,前者发生的概率为p,后者的概率为1 − p。该试验的期望值等于μ = 1 · p + 0 · (1−p) = p。该试验的方差也可以类似地计算:σ2 = (1−p)2·p + (0−p)2·(1−p) = p(1 − p).

一般的二项分布是n次独立的伯努利试验的和。它的期望值和方差分别等于每次单独试验的期望值和方差的和:

    \mu_n = \sum_{k=1}^n \mu = np, \qquad    \sigma^2_n = \sum_{k=1}^n \sigma^2 = np(1 - p).

正态分布又叫高斯分布

正态分布的定义

有几种不同的方法用来说明一个随机变量。最直观的方法是概率密度函数,这种方法能够表示随机变量每个取值有多大的可能性。累积分布函数是一种概率上更加清楚的方法,请看下边的例子。还有一些其他的等价方法,例如cumulant特征函数动差生成函数以及cumulant-生成函数。这些方法中有一些对于理论工作非常有用,但是不够直观。请参考关于概率分布的讨论。

概率密度函数

四个不同参数集的概率密度函数(绿色线代表标准正态分布)

正态分布概率密度函数均值为\mu 方差\sigma^2 (或标准差\sigma)是高斯函数的一个实例:

f(x;\mu,\sigma)=\frac{1}{\sigma\sqrt{2\pi}} \, \exp \left( -\frac{(x- \mu)^2}{2\sigma^2} \right)

(请看指数函数以及\pi.)

如果一个随机变量X服从这个分布,我们写作 X ~ N(\mu, \sigma^2). 如果\mu = 0并且\sigma = 1,这个分布被称为标准正态分布,这个分布能够简化为

f(x) = \frac{1}{\sqrt{2\pi}} \, \exp\left(-\frac{x^2}{2} \right)

右边是给出了不同参数的正态分布的函数图。

正态分布中一些值得注意的量:

  • 密度函数关于平均值对称
  • 平均值与它的众数(statistical mode)以及中位数(median)同一数值。
  • 函数曲线下68.268949%的面积在平均数左右的一个标准差范围内。
  • 95.449974%的面积在平均数左右两个标准差2 \sigma的范围内。
  • 99.730020%的面积在平均数左右三个标准差3 \sigma的范围内。
  • 99.993666%的面积在平均数左右四个标准差4 \sigma的范围内。
  • 函数曲线的反曲点(inflection point)为离平均数一个标准差距离的位置。

累积分布函数

上图所示的概率密度函数的累积分布函数

累积分布函数是指随机变数X小于或等于x的概率,用概率密度函数表示为

F(x;\mu,\sigma)=\frac{1}{\sigma\sqrt{2\pi}}\int_{-\infty}^x \exp \left( -\frac{(t - \mu)^2}{2\sigma^2}\ \right)\, dt.

正态分布的累积分布函数能够由一个叫做误差函数特殊函数表示:

\Phi(z)=\frac12 \left[1 + \operatorname{erf}\left(\frac{z-\mu}{\sigma\sqrt2}\right)\right] .

标准正态分布的累积分布函数习惯上记为\Phi,它仅仅是指\mu=0\sigma=1的值,

\Phi(x)=F(x;0,1)=\frac{1}{\sqrt{2\pi}}\int_{-\infty}^x\exp\left(-\frac{t^2}{2}\right)\, dt.

将一般正态分布用误差函数表示的公式简化,可得:

\Phi(z)=\frac{1}{2} \left[ 1 + \operatorname{erf} \left( \frac{z}{\sqrt{2}} \right) \right].

它的反函数被称为反误差函数,为:

\Phi^{-1}(p)=\sqrt2\;\operatorname{erf}^{-1} \left(2p - 1 \right).

该分位数函数有时也被称为probit函数。probit函数已被证明没有初等原函数。

正态分布的分布函数\Phi(x)没有解析表达式,它的值可以通过数值积分泰勒级数或者渐进序列近似得到。


泊松分布


泊松分布
Plot of the Poisson PMF
横轴是索引k,发生次数。该函数只定义在k为整数的时候。连接线是只为了指导视觉。
概率质量函数
Plot of the Poisson CDF
横轴是索引k,发生次数。CDF在整数k处不连续,且在其他任何地方都是水平的,因为服从泊松分布的变量只针对整数值。
累积分布函数
参数λ > 0(实数
支撑集k ∈ { 0, 1, 2, 3, ... }
概率质量函数\frac{\lambda^k}{k!} e^{-\lambda}
累积分布函数

\frac{\Gamma(\lfloor k+1\rfloor, \lambda)}{\lfloor k\rfloor !},或e^{-\lambda} \sum_{i=0}^{\lfloor k\rfloor} \frac{\lambda^i}{i!}\ ,或Q(\lfloor k+1\rfloor,\lambda)

(对于k\ge 0,其中\Gamma(x, y)不完全Γ函数\lfloor k\rfloor高斯函数,Q是规则化Γ函数)
期望值\lambda
中位数\approx\lfloor\lambda+1/3-0.02/\lambda\rfloor
众数\lceil\lambda\rceil - 1, \lfloor\lambda\rfloor
方差\lambda
偏度\lambda^{-1/2}
峰度\lambda^{-1}
信息熵

\lambda[1 - \log(\lambda)] + e^{-\lambda}\sum_{k=0}^\infty \frac{\lambda^k\log(k!)}{k!}(for large \lambda)

\frac{1}{2}\log(2 \pi e \lambda) - \frac{1}{12 \lambda} - \frac{1}{24 \lambda^2} -
\qquad \frac{19}{360 \lambda^3} + O\left(\frac{1}{\lambda^4}\right)
动差生成函数\exp(\lambda (e^{t} - 1))
特性函数\exp(\lambda (e^{it} - 1))

Poisson分布,译名有泊松分布普阿松分布卜瓦松分布布瓦松分布布阿松分布波以松分布卜氏分配等,又称泊松小数法则(Poisson law of small numbers),是一种统计概率学里常见到的离散概率分布,由法国数学家西莫恩·德尼·泊松(Siméon-Denis Poisson)在1838年时发表。

泊松分布适合于描述单位时间内随机事件发生的次数的概率分布。如某一服务设施在一定时间内受到的服务请求的次数,电话交换机接到呼叫的次数、汽车站台的候客人数、机器出现的故障数、自然灾害发生的次数、DNA序列的变异数、放射性原子核的衰变数等等。

泊松分布的概率质量函数为:

P(X=k)=\frac{e^{-\lambda}\lambda^k}{k!}

泊松分布的参数λ是单位时间(或单位面积)内随机事件的平均发生率。


\mathit{X}服从参数为\mathit{\lambda}的泊松分布,记为X \sim \pi(\lambda),或记为X \sim P(\lambda).

性质

1、服从泊松分布的随机变量,其数学期望方差相等,同为参数λ:E(X)=V(X)=λ

2、两个独立且服从泊松分布的随机变量,其和仍然服从泊松分布。更精确地说,若X ~ Poisson(λ1)且Y ~ Poisson(λ2),则X+Y ~Poisson(λ1+λ2)。

3、其矩母函数为:

M_X(t)=E[e^{tX}]=\sum_{x=0}^\infty e^{tX}\frac{e^{-\lambda}\lambda^x}{x!}=e^{-\lambda}\sum_{x=0}^\infty\frac{({e^t}\lambda)^x}{x!}=e^{​{\lambda}(e^t-1)}

泊松分布的来源(泊松小数定律)

二项分布伯努利试验中,如果试验次数n很大,二项分布的概率p很小,且乘积λ= np比较适中,则事件出现的次数的概率可以用泊松分布来逼近。事实上,二项分布可以看作泊松分布在离散时间上的对应物。

证明如下。首先,回顾e的定义:

\lim_{n\to\infty}\left(1-{\lambda \over n}\right)^n=e^{-\lambda},

二项分布的定义:

P(X=k)={n \choose k} p^k (1-p)^{n-k}

如果令p = \lambda/nn趋于无穷时P的极限:

\begin{align}\lim_{n\to\infty} P(X=k)&=\lim_{n\to\infty}{n \choose k} p^k (1-p)^{n-k} \\ &=\lim_{n\to\infty}{n! \over (n-k)!k!} \left({\lambda \over n}\right)^k \left(1-{\lambda\over n}\right)^{n-k}\\&=\lim_{n\to\infty}\underbrace{\left[\frac{n!}{n^k\left(n-k\right)!}\right]}_F\left(\frac{\lambda^k}{k!}\right)\underbrace{\left(1-\frac{\lambda}{n}\right)^n}_{\to\exp\left(-\lambda\right)}\underbrace{\left(1-\frac{\lambda}{n}\right)^{-k}}_{\to 1} \\&= \lim_{n\to\infty}\underbrace{\left[ \left(1-\frac{1}{n}\right)\left(1-\frac{2}{n}\right) \ldots \left(1-\frac{k-1}{n}\right)  \right]}_{\to 1}\left(\frac{\lambda^k}{k!}\right)\underbrace{\left(1-\frac{\lambda}{n}\right)^n}_{\to\exp\left(-\lambda\right)}\underbrace{\left(1-\frac{\lambda}{n}\right)^{-k}}_{\to 1}      \\&= \left(\frac{\lambda^k}{k!}\right)\exp\left(-\lambda\right)\end{align}

最大似然估计

给定n个样本值ki,希望得到从中推测出总体的泊松分布参数λ的估计。为计算最大似然估计值,列出对数似然函数:

\begin{align}L(\lambda) & = \log \prod_{i=1}^n f(k_i \mid \lambda) \\& = \sum_{i=1}^n \log\!\left(\frac{e^{-\lambda}\lambda^{k_i}}{k_i!}\right) \\& = -n\lambda + \left(\sum_{i=1}^n k_i\right) \log(\lambda) - \sum_{i=1}^n \log(k_i!). \end{align}

对函数L取相对于λ的导数并令其等于零:

\frac{\mathrm{d}}{\mathrm{d}\lambda} L(\lambda) = 0\iff -n + \left(\sum_{i=1}^n k_i\right) \frac{1}{\lambda} = 0. \!

解得λ从而得到一个驻点(stationary point):

\widehat{\lambda}_\mathrm{MLE}=\frac{1}{n}\sum_{i=1}^n k_i. \!

检查函数L的二阶导数,发现对所有的λ与ki大于零的情况二阶导数都为负。因此求得的驻点是对数似然函数L的极大值点:

\frac{\partial^2 L}{\partial \lambda^2} =  \sum_{i=1}^n -\lambda^{-2} k_i

例子

对某公共汽车站的客流做调查,统计了某天上午10:30到11:47来到候车的乘客情况。假定来到候车的乘客各批(每批可以是1人也可以是多人)是互相独立发生的。观察每20秒区间来到候车的乘客批次,共观察77分钟*3=231次,共得到230个观察记录。其中来到0批、1批、2批、3批、4批及4批以上的观察记录分别是100次、81次、34次、9次、6次。使用极大似真估计(MLE),得到\lambda的估计为200/231=0.8658。

生成泊松分布的随机变量一个用来生成随机泊松分布的数字(伪随机数抽样)的简单算法,已经由高德纳给出(见下文参考):

algorithm poisson random number (Knuth):
    init:
         Let L ← e−λ, k ← 0 and p ← 1.
    do:
         k ← k + 1.
         Generate uniform random number u in [0,1] and let p ← p×u.
    while p > L.
    return k − 1.

尽管简单,但复杂度是线性的,在返回的值k,平均是λ。还有许多其他算法来克服这一点。有些人由Ahrens和Dieter给出,请参阅下面的参考资料。同样,对于较大的λ值,e可能导致数值稳定性问题。对于较大λ值的一种解决方案是拒绝采样,另一种是采用泊松分布的高斯近似。

对于很小的λ值,逆变换取样简单而且高效,每个样本只需要一个均匀随机数u。直到有超过u的样本,才需要检查累积概率。

algorithm Poisson generator based upon the inversion by sequential search:[1]
    init:
         Let x ← 0, p ← e−λ, s ← p.
         Generate uniform random number u in [0,1].
    do:
         x ← x + 1.
         p ← p * λ / x.
         s ← s + p.
    while u > s.
    return x.
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值