【随机过程】12 - 泊松过程的推广型

泊松过程的推广型

1. 泊松过程基本型回顾

1.1 性质

  泊松过程具有三个很重要的特性:独立增量特性、平稳增量特性以及稀疏性。同时,我们对泊松分布的研究主要集中在概率密度上,也就是时间t内事件发生次数的概率。

N ( 0 ) = 0 Independent Increment Stationary Increment Sparsity ⇒ P ( N ( t ) = k ) = ( λ t ) k k ! e x p ( − λ t ) N(0) = 0 \\ \text{Independent Increment} \\ \text{Stationary Increment} \\ \text{Sparsity} \\ \Rightarrow P(N(t) = k) = \frac{(\lambda t)^k}{k!} exp(-\lambda t) N(0)=0Independent IncrementStationary IncrementSparsityP(N(t)=k)=k!(λt)kexp(λt)

1.2 泊松分布与射击模型

  下面对泊松分布进行稍加说明

  泊松分布其实是射击模型的一种逼近。我们假设射击n次,每次射击命中率为P,那么射中k次的概率可以表示为

Binomial Distribution P ( Z = k ) = C n k ( P ) k ( 1 − P ) n − k \text{Binomial Distribution} \\ P(Z=k) = C_{n}^k(P)^k (1-P)^{n-k} Binomial DistributionP(Z=k)=Cnk(P)k(1P)nk

  现在对射击模型进行逼近,假设命中率P趋近于0,射击次数n趋近于无穷大,并且nP=λ是常数

P → 0 n → ∞ n P = λ P \rightarrow 0 \\ n \rightarrow \infty \\ nP = \lambda P0nnP=λ

  我们可以计算一下这个射击模型的极限

P ( Z = k ) = C n k ( λ n ) k ( 1 − λ n ) n − k l i m n → ∞ C n k ( λ n ) k ( 1 − λ n ) n − k = l i m n → ∞ n ! k ! ( n − k ) ! ( λ n ) k ( 1 − λ n ) − k ( 1 − λ n ) n = l i m n → ∞ λ k k ! ( n ∗ ( n − 1 ) ∗ . . . ∗ ( n − k + 1 ) ) n k ( 1 − λ n ) − k ( 1 − λ n ) n = λ k k ! ∗ 1 ∗ 1 ∗ e − λ = λ k k ! e − λ P(Z=k) = C_{n}^k(\frac{\lambda}{n})^k (1-\frac{\lambda}{n})^{n-k} \\ lim_{n\rightarrow \infty}C_{n}^k(\frac{\lambda}{n})^k (1-\frac{\lambda}{n})^{n-k} \\ = lim_{n\rightarrow \infty} \frac{n!}{k!(n-k)!} (\frac{\lambda}{n})^k (1-\frac{\lambda}{n})^{-k}(1-\frac{\lambda}{n})^{n} \\ \\ = lim_{n\rightarrow \infty} \frac{\lambda^k}{k!} \frac{(n*(n-1)*...*(n-k+1))}{n^k}(1-\frac{\lambda}{n})^{-k}(1-\frac{\lambda}{n})^{n} \\ = \frac{\lambda^k}{k!} *1*1*e^{-\lambda} = \frac{\lambda^k}{k!} e^{-\lambda} P(Z=k)=Cnk(nλ)k(1nλ)nklimnCnk(nλ)k(1nλ)nk=limnk!(nk)!n!(nλ)k(1nλ)k(1nλ)n=limnk!λknk(n(n1)...(nk+1))(1nλ)k(1nλ)n=k!λk11eλ=k!λkeλ

  我们就得到了泊松分布。泊松分布是二项分布的逼近。二项分布是射击模型。当命中率足够小,射击次数足够多,就变成了泊松分布。泊松是在等待,等待一个稀有事件的到来,因此泊松具有稀疏性。

Waitting Rare Events \text{Waitting Rare Events} Waitting Rare Events

Z ∼ P ( λ ) E ( Z ) = λ V a r ( Z ) = λ Z \sim P(\lambda) \\ E(Z) = \lambda \\ Var(Z) = \lambda ZP(λ)E(Z)=λVar(Z)=λ

2. 泊松过程的推广型

  我们知道,独立性、平稳性和稀疏性是泊松分布三个很重要的特性,下面,我们会逐渐的放松这些性质,可以得到更加实用性的泊松过程的推广型。

2.1 放宽平稳性

2.1.1 非平稳泊松过程

Stationary \text{Stationary} \\ Stationary

  我们回忆,在计算泊松过程的母函数的时候,用到了平稳增量特性进行变换

E ( Z N ( t + Δ t ) − N ( t ) − 1 ) = E ( Z N ( Δ t ) − 1 ) E(Z^{N(t +\Delta t) - N(t)}-1) = E(Z^{N(\Delta t)}-1) \\ E(ZN(t+Δt)N(t)1)=E(ZN(Δt)1)

  现在没有平稳增量特性了,我们就需要使用原始的式子进行求解了

E ( Z N ( t + Δ t ) − N ( t ) − 1 ) = P ( N ( t + Δ t ) − N ( t ) = 0 ) − 1 + Z P ( N ( t + Δ t ) − N ( t ) = 1 ) + ∑ k ≥ 2 Z k P ( N ( t + Δ t ) − N ( t ) = k ) E(Z^{N(t +\Delta t) - N(t)}-1) = P(N(t +\Delta t) - N(t) = 0) - 1 +ZP(N(t +\Delta t) - N(t) = 1) \\+ \sum_{k \geq 2} Z^k P(N(t +\Delta t) - N(t) = k) E(ZN(t+Δt)N(t)1)=P(N(t+Δt)N(t)=0)1+ZP(N(t+Δt)N(t)=1)+k2ZkP(N(t+Δt)N(t)=k)

  之前我们做的时候,利用平稳增量、独立增量特性可以把第一个概率证明出是指数函数,现在我们做额外的假设

Let  l i m Δ t → 0 P ( N ( t + Δ t ) − N ( t ) = 0 ) − 1 Δ t = − λ ( t ) \text{Let } \\ lim_{\Delta t \rightarrow 0}\frac{P(N(t+\Delta t)-N(t)=0)-1}{\Delta t} = - \lambda(t) Let limΔt0ΔtP(N(t+Δt)N(t)=0)1=λ(t)

  之前的结果是λ,是个确数。现在得到的是一个与时间t有关的函数

P ( N ( t + Δ t ) − N ( t ) = 0 ) − 1 Δ t + P ( N ( t + Δ t ) − N ( t ) = 1 ) Δ t ( Z + ∑ k ≥ 2 Z k P ( N ( t + Δ t ) − N ( t ) = k ) P ( N ( t + Δ t ) − N ( t ) = 1 ) ) = P ( N ( t + Δ t ) − N ( t ) = 0 ) − 1 Δ t + P ( N ( t + Δ t ) − N ( t ) = 1 ) Δ t ( Z + O ( Δ t ) ) = − λ ( t ) + λ ( t ) Z \frac{P(N(t +\Delta t) - N(t) = 0) - 1}{\Delta t} +\frac{P(N(t +\Delta t) - N(t) = 1)}{\Delta t} (Z+\sum_{k \geq 2} Z^k \frac{P(N(t +\Delta t) - N(t) = k)}{P(N(t +\Delta t) - N(t) = 1)}) \\ = \frac{P(N(t +\Delta t) - N(t) = 0) - 1}{\Delta t} +\frac{P(N(t +\Delta t) - N(t) = 1)}{\Delta t} (Z+ O(\Delta t)) \\ = -\lambda(t) +\lambda(t) Z ΔtP(N(t+Δt)N(t)=0)1+ΔtP(N(t+Δt)N(t)=1)(Z+k2ZkP(N(t+Δt)N(t)=1)P(N(t+Δt)N(t)=k))=ΔtP(N(t+Δt)N(t)=0)1+ΔtP(N(t+Δt)N(t)=1)(Z+O(Δt))=λ(t)+λ(t)Z

  因此

d G N ( t ) ( Z ) d t = G N ( t ) ( Z ) ( − λ ( t ) + λ ( t ) Z ) \frac{dG_{N(t)}(Z)}{dt} = G_{N(t)}(Z) (-\lambda(t) +\lambda(t) Z) dtdGN(t)(Z)=GN(t)(Z)(λ(t)+λ(t)Z)

  得到了一个变系数微分方程

⇒ G N ( t ) ( Z ) = e x p ( ( Z − 1 ) ∫ 0 t λ ( s ) d s ) \Rightarrow G_{N(t)}(Z) = exp((Z-1) \int_{0}^t \lambda(s)ds) GN(t)(Z)=exp((Z1)0tλ(s)ds)

  与平稳增量的结果进行对比

G N ( t ) ( Z ) = e x p ( − λ t ) e x p ( λ Z t ) = e x p ( ( Z − 1 ) λ t ) G_{N(t)}(Z) = exp(-\lambda t) exp(\lambda Z t) = exp((Z-1)\lambda t) GN(t)(Z)=exp(λt)exp(λZt)=exp((Z1)λt)

  根据泊松分布的母函数形式来看,放宽平稳增量特性之后,得到的仍然是个泊松分布。现在这种泊松过程叫做非齐次泊松过程或者叫非平稳泊松过程

Non-Homogenous Posisson \text{Non-Homogenous Posisson} \\ Non-Homogenous Posisson

  如果强度是个常数了之后,非平稳泊松过程是可以变回泊松过程的
λ ( s ) = λ ⇒ ∫ 0 t λ ( s ) d s = λ t \lambda(s) = \lambda \Rightarrow \int_{0}^t \lambda(s)ds = \lambda t λ(s)=λ0tλ(s)ds=λt

  非平稳泊松过程意味着,在不同时刻,事件发生的强度是不同的,这就给之前网络的模型提供了更加好的模型。因为可以描述半夜三点和下午三点网络流量不同的这种情况了。

2.2 放宽稀疏性

2.3.1 复合泊松过程

  下面,我们要改变一下泊松过程的跳跃规律。因此每次事件发生的时候,都认为是让当前计数值加一,也就是跳高一步。现在我们要改变这个跳跃规律,让每次事件发生的时候跳起来的高度有所变化。

在这里插入图片描述

  这个需要是非常有用的。比如我们研究网络流量的时候,数据包的数量往往是不定长的。也就是每次网络事件发生的时候,数据包增加的量也是个随机变量

在这里插入图片描述

  我们对泊松过程做一些修改

Y ( t ) = ∑ k = 1 N ( t ) X k X k ∼ i . i . d . { X k }  independent of  N ( t ) Y(t) = \sum_{k=1}^{N(t)} X_k \\ X_k \sim i.i.d. \\ \{ X_k\} \text{ independent of } N(t) Y(t)=k=1N(t)XkXki.i.d.{Xk} independent of N(t)

  每个事件X都是独立同分布的。然后事件X与事件发生的次数N(t)之间也是独立的。

  这个新的随机过程中,包含了两个随机因素。一方面(0,t)内事件发生的次数是随机的。然后X是随机的,也就是每次事件发生带来的影响是不一定的。

  我们想了解这个新的随机过程的概率。先从Y(t)的母函数开始计算

G Y ( t ) ( Z ) = E ( Z Y ( t ) ) = E ( Z ∑ k = 1 N ( t ) X k ) G_{Y(t)}(Z) = E(Z^{Y(t)}) = E(Z^{\sum_{k=1}^{N(t)} X_k}) GY(t)(Z)=E(ZY(t))=E(Zk=1N(t)Xk)

  因为里面有两个随机变量,所以要使用条件期望,逐个求解

E ( Z ∑ k = 1 N ( t ) X k ) = E N ( E X ( Z ∑ k = 1 n X k ) ∣ N ( t ) = n ) = E N ( E X ( ∏ k = 1 n Z X k ) ∣ N ( t ) = n ) = E ( ∏ k = 1 N ( t ) E ( Z X k ) ) = E ( E ( Z X 1 ) N ( t ) ) E(Z^{\sum_{k=1}^{N(t)} X_k}) = E_N(E_X(Z^{\sum_{k=1}^{n} X_k})|N(t) = n) \\ =E_N(E_X(\prod_{k=1}^n Z^{X_k})|N(t) = n) \\ = E(\prod_{k=1}^{N(t)}E( Z^{X_k})) = E(E( Z^{X_1})^{N(t)}) E(Zk=1N(t)Xk)=EN(EX(Zk=1nXk)N(t)=n)=EN(EX(k=1nZXk)N(t)=n)=E(k=1N(t)E(ZXk))=E(E(ZX1)N(t))

  其中,底数可以替换成X的母函数

G X 1 ( Z ) = E ( Z X 1 ) G_{X_1}(Z) = E( Z^{X_1}) GX1(Z)=E(ZX1)

Then  G Y ( t ) ( Z ) = E ( Z ∑ k = 1 N ( t ) X k ) = E ( G X 1 ( Z ) N ( t ) ) \text{Then } \\ G_{Y(t)}(Z) =E(Z^{\sum_{k=1}^{N(t)} X_k}) = E(G_{X_1}(Z)^{N(t)}) Then GY(t)(Z)=E(Zk=1N(t)Xk)=E(GX1(Z)N(t))

  令

Let Z ~ = G X 1 ( Z ) \text{Let} \widetilde {Z} = G_{X_1}(Z) \\ LetZ =GX1(Z)

Then  G Y ( t ) ( Z ) = E ( Z ∑ k = 1 N ( t ) X k ) = E ( Z ~ N ( t ) ) = G N ( t ) ( Z ~ ) ∣ Z ~ = G X 1 ( Z ) \text{Then } \\ G_{Y(t)}(Z) =E(Z^{\sum_{k=1}^{N(t)} X_k}) = E(\widetilde {Z}^{N(t)}) \\ = G_{N(t)}(\widetilde{Z})|_{\widetilde{Z} = G_{X_1}(Z)} Then GY(t)(Z)=E(Zk=1N(t)Xk)=E(Z N(t))=GN(t)(Z )Z =GX1(Z)

  我们把结果代入N(t)的母函数中

G N ( t ) ( Z ) = e x p ( λ t ( Z − 1 ) ) G_{N(t)}(Z) = exp(\lambda t(Z-1)) GN(t)(Z)=exp(λt(Z1))

G Y ( t ) ( Z ) = G N ( t ) ( Z ~ ) ∣ Z ~ = G X 1 ( Z ) = G N ( t ) ( G X 1 ( Z ) ) = e x p ( λ t ( G X 1 ( Z ) − 1 ) ) G_{Y(t)}(Z) = G_{N(t)}(\widetilde{Z})|_{\widetilde{Z} = G_{X_1}(Z)} =G_{N(t)}(G_{X_1}(Z)) =exp(\lambda t(G_{X_1}(Z)-1)) GY(t)(Z)=GN(t)(Z )Z =GX1(Z)=GN(t)(GX1(Z))=exp(λt(GX1(Z)1))

  如果我们想要退回到一般的泊松分布,我们仅仅需要让每次事件的变化即是+1即可

Y ( t ) = ∑ k = 1 N ( t ) X k X k ≡ 1 Y(t) = \sum_{k=1}^{N(t)} X_k \\ X_k \equiv 1 Y(t)=k=1N(t)XkXk1

G X k ( Z ) = E ( Z X k ) = E ( Z ) = Z G_{X_k}(Z) = E(Z^{X_k}) = E(Z) = Z GXk(Z)=E(ZXk)=E(Z)=Z
G Y ( t ) ( Z ) = e x p ( λ t ( G X 1 ( Z ) − 1 ) ) = e x p ( λ t ( Z − 1 ) ) G_{Y(t)}(Z) =exp(\lambda t(G_{X_1}(Z)-1)) = exp(\lambda t(Z-1)) GY(t)(Z)=exp(λt(GX1(Z)1))=exp(λt(Z1))

  我们得到的这个过程叫做复合泊松过程

Compound Poisson \text{Compound Poisson} Compound Poisson

  非平稳泊松过程是从平稳性出发做的推广,改变的是泊松分布的强度。现在改变的是每一次事件发生对泊松造成的影响,让每一次事件的影响不是次数+1了,而是有了不同的影响。

2.3.2 复合泊松过程举例

Thining \text{Thining} Thining

  现在对复合泊松分布进行举例说明。假设同学们按照泊松分布来上学,然后每次进来的是男生§和女生(1-p)的概率是已知的,现在统计到学校的男生人数服从什么分布

( p 1 − p M F ) \begin{pmatrix} p & 1-p \\ M & F \end{pmatrix} (pM1pF)

  我们假设总人数的分布是N(t),男生人数分布是M(t),女生人数的分布是F(t)

N ( t ) M ( t ) F ( t ) N(t)\quad M(t) \quad F(t) N(t)M(t)F(t)

  我们给M(t)进行定义,事件X服从两点分布

M ( t ) = ∑ k = 1 N ( t ) X k X k ∼ ( p 1 − p 1 0 ) M(t) = \sum_{k=1}^{N(t)} X_k \\ X_k \sim \begin{pmatrix} p & 1-p \\ 1 & 0 \end{pmatrix} M(t)=k=1N(t)XkXk(p11p0)

  因此,这是一个复合泊松分布,求母函数

G M ( t ) ( Z ) = E ( Z M ( t ) ) = e x p ( λ t ( G X 1 ( Z ) − 1 ) ) G_{M(t)}(Z) = E(Z^{M(t)}) \\ = exp(\lambda t (G_{X_1}(Z)-1)) GM(t)(Z)=E(ZM(t))=exp(λt(GX1(Z)1))

G X 1 ( Z ) = E ( Z 1 X ) = Z 1 p + Z 0 ( 1 − p ) = P Z + ( 1 − p ) G_{X_1}(Z) = E(Z^X_1) = Z^1 p + Z^0 (1-p) = PZ +(1-p) GX1(Z)=E(Z1X)=Z1p+Z0(1p)=PZ+(1p)

  可得

G M ( t ) ( Z ) = e x p ( λ t ( p Z + ( 1 − p ) − 1 ) ) = e x p ( λ p t ( Z − 1 ) ) G_{M(t)}(Z) = exp(\lambda t (pZ +(1-p)-1)) \\ = exp(\lambda pt(Z-1)) GM(t)(Z)=exp(λt(pZ+(1p)1))=exp(λpt(Z1))

  得到的仍然是一个泊松分布,强度是λp

  这里继续举一个例子,如果是来的人服从泊松分布,但是第一个来的人计数,第二个不计数,这样得到的分布不是泊松分布。因为破坏了无记忆性。

2.3.3 泊松过程的和

  下面说明,两个泊松过程做和得到的是否还是泊松过程。假设两个泊松过程是独立的

N 1 ( t ) λ 1 N 2 ( t ) λ 2 N ( t ) = N 1 ( t ) + N 2 ( t ) N_1(t) \quad \lambda_1 \\ N_2(t) \quad \lambda_2 \\ N(t) = N_1(t) + N_2(t) N1(t)λ1N2(t)λ2N(t)=N1(t)+N2(t)

  我们可以用母函数来处理和的问题

G N ( t ) ( Z ) = E ( Z N 1 ( t ) + N 2 ( t ) ) = E ( Z N 1 ( t ) ) E ( Z N 2 ( t ) ) = e x p ( λ 1 t ( Z − 1 ) ) e x p ( λ 2 t ( Z − 1 ) ) = e x p ( ( λ 1 + λ 2 ) t ( Z − 1 ) ) G_{N(t)}(Z) = E(Z^{N_1(t) + N_2(t)}) \\ =E(Z^{N_1(t)})E(Z^{N_2(t)}) \\ = exp(\lambda_1 t(Z-1))exp(\lambda_2 t(Z-1)) \\ = exp((\lambda_1 + \lambda_2)t(Z-1)) GN(t)(Z)=E(ZN1(t)+N2(t))=E(ZN1(t))E(ZN2(t))=exp(λ1t(Z1))exp(λ2t(Z1))=exp((λ1+λ2)t(Z1))

  可以发现两个泊松过程的和仍然是泊松过程

2.3.4 泊松过程的差

  下面来继续分析两个独立泊松过程的差是否还是个泊松过程

N ( t ) = N 1 ( t ) − N 2 ( t ) N(t) = N_1(t) - N_2(t) N(t)=N1(t)N2(t)

  事实上,这一定不是个泊松过程,因为N(t)是可能小于0的

P ( N 1 ( t ) − N 2 ( t ) < 0 ) = 0 P(N_1(t) - N_2(t) <0 ) \cancel = 0 P(N1(t)N2(t)<0)= 0

  泊松过程是一个计数过程,不可能小于0。因此,这一定不是是泊松过程。但是我们可以计算一下这个函数的母函数进行分析

G N ( t ) ( Z ) = E ( Z N 1 ( t ) − N 2 ( t ) ) = E ( Z N 1 ( t ) ) E ( Z − N 2 ( t ) ) = E ( Z N 1 ( t ) ) E ( ( 1 Z ) N 2 ( t ) ) = e x p ( λ 1 t ( Z − 1 ) ) e x p ( λ 2 t ( 1 Z − 1 ) ) = e x p ( ( λ 1 + λ 2 ) t ( λ 1 λ 1 + λ 2 Z + λ 2 λ 1 + λ 2 Z − 1 − 1 ) ) G_{N(t)}(Z) = E(Z^{N_1(t) -N_2(t)}) \\ =E(Z^{N_1(t) })E(Z^{-N_2(t) }) \\ = E(Z^{N_1(t) })E((\frac{1}{Z})^{N_2(t) }) \\ = exp(\lambda_1 t(Z-1))exp(\lambda_2 t(\frac{1}{Z}-1)) \\ = exp((\lambda_1+\lambda_2)t (\frac{\lambda_1}{\lambda_1 + \lambda_2}Z + \frac{\lambda_2}{\lambda_1 + \lambda_2}Z^{-1}-1)) GN(t)(Z)=E(ZN1(t)N2(t))=E(ZN1(t))E(ZN2(t))=E(ZN1(t))E((Z1)N2(t))=exp(λ1t(Z1))exp(λ2t(Z11))=exp((λ1+λ2)t(λ1+λ2λ1Z+λ1+λ2λ2Z11))

  我们可以看到,这是一个复合泊松分布。

G X ( Z ) = λ 1 λ 1 + λ 2 Z + λ 2 λ 1 + λ 2 Z − 1 G_X(Z) = \frac{\lambda_1}{\lambda_1 + \lambda_2}Z + \frac{\lambda_2}{\lambda_1 + \lambda_2}Z^{-1} GX(Z)=λ1+λ2λ1Z+λ1+λ2λ2Z1

  这是一个伯努利分布的母函数

X ∼ ( 1 − 1 λ 1 λ 1 + λ 2 λ 2 λ 1 + λ 2 ) X \sim \begin{pmatrix} 1 & -1 \\ \frac{\lambda_1}{\lambda_1 + \lambda_2} & \frac{\lambda_2}{\lambda_1 + \lambda_2} \end{pmatrix} X(1λ1+λ2λ11λ1+λ2λ2)

  因此我们可以看到,两个泊松分布的和是泊松,两个泊松的差是复合泊松

在这里插入图片描述

  上图是两个泊松差的事件发生情况

2.3.5 复合泊松与稀疏性

  事实上,复合泊松分布是在稀疏性上放宽的要求得到的一种分布

  我们对稀疏性的解析定义是这样的

l i m Δ t → 0 P ( N ( Δ t ) ≥ 2 ) P ( N ( Δ t ) = 1 ) = 0 lim_{\Delta t \rightarrow 0}\frac{P(N(\Delta t) \geq 2)}{ P(N(\Delta t)=1)} = 0 limΔt0P(N(Δt)=1)P(N(Δt)2)=0

  现在我们取消稀疏性的限制,让每一个事件发生的概率都存在,也就是

l i m Δ t → 0 P ( N ( Δ t ) = k ) P ( N ( Δ t ) ≥ 1 ) = P k lim_{\Delta t \rightarrow 0}\frac{P(N(\Delta t) =k)}{ P(N(\Delta t)\geq 1)} = P_k limΔt0P(N(Δt)1)P(N(Δt)=k)=Pk

  我们继续从泊松过程证明过程出发,把稀疏性的部分进行替换

E ( Z N ( Δ t ) − 1 ) Δ t = P ( N ( Δ t ) = 0 ) − 1 Δ t + Z P ( N ( Δ t ) = 1 ) + ∑ k ≥ 2 Z k P ( N ( Δ t ) = k ) Δ t = P ( N ( Δ t ) = 0 ) − 1 Δ t + ∑ k ≥ 1 Z k P ( N ( Δ t ) = k ) Δ t = P ( N ( Δ t ) = 0 ) − 1 Δ t + P ( N ( Δ t ) ≥ 1 ) Δ t ∑ k ≥ 1 Z k P ( N ( Δ t ) = k ) P ( N ( Δ t ) ≥ 1 ) = P ( N ( Δ t ) = 0 ) − 1 Δ t + P ( N ( Δ t ) ≥ 1 ) Δ t ∑ k ≥ 1 Z k P k = P ( N ( Δ t ) = 0 ) − 1 Δ t + 1 − P ( N ( Δ t ) = 0 ) Δ t ∑ k ≥ 1 Z k P k = − λ + λ ∑ k ≥ 1 Z k P k \frac{E(Z^{N(\Delta t)}-1)}{\Delta t} = \frac{P(N(\Delta t) = 0) - 1}{\Delta t} +\frac{ZP(N(\Delta t) = 1) + \sum_{k \geq 2} Z^k P(N(\Delta t) = k)}{\Delta t} \\ = \frac{P(N(\Delta t) = 0) - 1}{\Delta t} +\frac{ \sum_{k \geq 1} Z^k P(N(\Delta t) = k)}{\Delta t} \\ = \frac{P(N(\Delta t) = 0) - 1}{\Delta t} +\frac{P(N(\Delta t) \geq 1)}{\Delta t}\frac{ \sum_{k \geq 1} Z^k P(N(\Delta t) = k)}{P(N(\Delta t) \geq 1)} \\ = \frac{P(N(\Delta t) = 0) - 1}{\Delta t} +\frac{P(N(\Delta t) \geq 1)}{\Delta t}\sum_{k \geq 1} Z^kP_k \\ = \frac{P(N(\Delta t) = 0) - 1}{\Delta t} +\frac{1-P(N(\Delta t) = 0) }{\Delta t}\sum_{k \geq 1} Z^kP_k \\ = -\lambda + \lambda \sum_{k \geq 1} Z^kP_k ΔtE(ZN(Δt)1)=ΔtP(N(Δt)=0)1+ΔtZP(N(Δt)=1)+k2ZkP(N(Δt)=k)=ΔtP(N(Δt)=0)1+Δtk1ZkP(N(Δt)=k)=ΔtP(N(Δt)=0)1+ΔtP(N(Δt)1)P(N(Δt)1)k1ZkP(N(Δt)=k)=ΔtP(N(Δt)=0)1+ΔtP(N(Δt)1)k1ZkPk=ΔtP(N(Δt)=0)1+Δt1P(N(Δt)=0)k1ZkPk=λ+λk1ZkPk

Let  G ( Z ) = ∑ k ≥ 1 Z k P k Then  E ( Z N ( Δ t ) − 1 ) Δ t = − λ + λ G ( Z ) \text{Let } G(Z)= \sum_{k \geq 1} Z^kP_k \\ \text{Then } \\ \frac{E(Z^{N(\Delta t)}-1)}{\Delta t} = -\lambda + \lambda G(Z) Let G(Z)=k1ZkPkThen ΔtE(ZN(Δt)1)=λ+λG(Z)

  得到母函数的微分方程

d G N ( t ) ( Z ) d t = G N ( t ) ( Z ) ( − λ + λ G ( Z ) ) \frac{dG_{N(t)}(Z)}{dt} = G_{N(t)}(Z) (-\lambda + \lambda G(Z)) dtdGN(t)(Z)=GN(t)(Z)(λ+λG(Z))

G N ( t ) = e x p ( λ t ( G ( Z ) − 1 ) G_{N(t)} = exp(\lambda t(G(Z)-1) GN(t)=exp(λt(G(Z)1)

  我们比较一下放宽稀疏性和复合泊松得到的母函数

G ( Z ) = ∑ k ≥ 1 P k Z k P k = l i m Δ t → 0 P ( N ( Δ t ) = k ) P ( N ( Δ t ) ≥ 1 ) Sparsity G X 1 ( Z ) = ∑ k ≥ 1 P k ~ Z k P k ~ = P ( X 1 = k ) Compound G(Z) = \sum_{k \geq 1} P_k Z^k \quad P_k =lim_{\Delta t \rightarrow 0}\frac{P(N(\Delta t) =k)}{ P(N(\Delta t)\geq 1)} \quad \text{Sparsity}\\ G_{X_1}(Z) = \sum_{k \geq 1} \widetilde{P_k} Z^k \quad \widetilde{P_k} = P(X_1 = k) \quad \text{Compound} G(Z)=k1PkZkPk=limΔt0P(N(Δt)1)P(N(Δt)=k)SparsityGX1(Z)=k1Pk ZkPk =P(X1=k)Compound

  我们发现二者是极其相似的

2.3 放宽独立性

  接下来,我们会放宽独立增量特性。但是对于泊松过程来说,独立增量特性是一个极其重要的性质。放弃了这个性质,我们之前用来做泊松过程解析计算的方法就变得寸步难行

2.3.1 案例引入

  我们先举一个小例子进行引入

  我们假设有一个泊松过程N(t),强度是λ,这个泊松分布四段事件发生的间隔是T1,T2,T3,T4。四次事件发生的时刻是S1,S2,S3,S4,求一个条件期望E(S4|N(1)=2),就是在第一个时间段内事件发生了两次的前提下,计算第四次事件发生的时间的均值

N ( t ) λ T 1 , T 2 , T 3 , T 4 S 1 , S 2 , S 3 , S 4 E ( S 4 ∣ N ( 1 ) = 2 ) N(t) \quad \lambda \quad T_1,T_2,T_3,T_4 \quad S_1,S_2,S_3,S_4 \\ E(S_4 | N(1) = 2) N(t)λT1,T2,T3,T4S1,S2,S3,S4E(S4N(1)=2)

在这里插入图片描述

  我们可以把这个条件期望转换为一段时间内事件发生的次数

E ( S 4 ∣ N ( 1 ) = 2 ) E(S_4 | N(1) = 2) E(S4N(1)=2)

  因此,我们先从条件分布开始求,我们想求在第一个时间段内发生两次的条件下,第四个事件发生时间的分布,也就是第一个时刻发生两次,并且后面的时间段发生至少两次的概率

F S 4 ( t ∣ N ( 1 ) = 2 ) = P ( S 4 ≤ t ∣ N ( 1 ) = 2 ) = P ( S 4 ≤ t , N ( 1 ) = 2 ) P ( N ( 1 ) = 2 ) = P ( N ( 1 ) = 2 , N ( t ) − N ( 1 ) ≥ 2 ) P ( N ( 1 ) = 2 ) = P ( N ( 1 ) = 2 ) P ( N ( t ) − N ( 1 ) ≥ 2 ) P ( N ( 1 ) = 2 ) = P ( N ( t ) − N ( 1 ) ≥ 2 ) = P ( N ( t − 1 ) ≥ 2 ) = 1 − P ( N ( t − 1 ) = 0 ) − P ( N ( t − 1 ) = 1 ) = 1 − e x p ( − λ ( t − 1 ) ) − λ ( t − 1 ) e x p ( − λ ( t − 1 ) ) F_{S_4}(t|N(1)=2)=P(S_4 \leq t |N(1) = 2) = \frac{P(S_4 \leq t ,N(1)=2)}{P(N(1)=2)} \\ = \frac{P(N(1) =2,N(t) - N(1) \geq 2)}{P(N(1)=2)} \\ =\frac{P(N(1) =2)P(N(t) - N(1) \geq 2)}{P(N(1) =2)} \\ = P(N(t) - N(1) \geq 2) \\ = P(N(t-1) \geq 2) = 1- P(N(t-1)=0) - P(N(t-1)=1) \\ = 1-exp(-\lambda (t-1)) - \lambda (t-1)exp(-\lambda (t-1)) FS4(tN(1)=2)=P(S4tN(1)=2)=P(N(1)=2)P(S4t,N(1)=2)=P(N(1)=2)P(N(1)=2,N(t)N(1)2)=P(N(1)=2)P(N(1)=2)P(N(t)N(1)2)=P(N(t)N(1)2)=P(N(t1)2)=1P(N(t1)=0)P(N(t1)=1)=1exp(λ(t1))λ(t1)exp(λ(t1))

  求导和积分之后就能够得到这个概率

f S 4 ( t ∣ N ( 1 ) = 2 ) = d F S 4 ( t ∣ N ( 1 ) = 2 ) d t E ( S 4 ∣ N ( 1 ) = 2 ) = ∫ 0 + ∞ t f S 4 ( t ∣ N ( 1 ) = 2 ) d t = 1 + 2 λ f_{S_4}(t|N(1)=2)= \frac{dF_{S_4}(t|N(1)=2)}{dt} \\ E(S_4 |N(1)=2) = \int_{0}^{+\infty} t f_{S_4}(t|N(1)=2) dt \\ =1 +\frac{2}{\lambda} fS4(tN(1)=2)=dtdFS4(tN(1)=2)E(S4N(1)=2)=0+tfS4(tN(1)=2)dt=1+λ2

2.3.2 Inspection Paradox

  针对2.3.1中的案例,我们还有其他角度可以进行理解

在这里插入图片描述

  因为我们要求的是第一个时间段发生了两次事件,第四个时间段的分布函数。那么我们必定是已经有了1个时间了。而从第一个时刻往后看,后面两次事件发生的间隔是两个指数分布。指数分布的期望是1/λ,因此,我们可以直接得到

E ( S 4 ∣ N ( 1 ) = 2 ) = 1 + 2 λ E(S_4 |N(1)=2) = 1 + \frac{2}{\lambda} E(S4N(1)=2)=1+λ2

  这个事情看起来非常的矛盾,因为按理来说,应该两个事件发生的间隔是个指数分布,而不应该从T1时间段之后开始算。这样的话,得到的期望应该比1/λ小才对,但是实际上却能够得到正确的答案。

  我们来分析这样一问题

在这里插入图片描述

  假设有第t次发生事件的时刻和第t+1次发生事件的时刻,然后我们中间选了一个时间t,问画圈的这个三个时间间隔,都是什么分布。我们可以来计算一下

S N ( t + 1 ) − S N ( t ) A ( t ) : t − S N ( t ) B ( t ) : S N ( t + 1 ) − t S_{N(t+1)} - S_{N(t)} \\ A(t):t-S_N(t) \\ B(t): S_{N(t+1)} - t SN(t+1)SN(t)A(t):tSN(t)B(t):SN(t+1)t

  首先来看A(t)和B(t)的分布情况,我们计算一下(x,y)之间的分布情况

P ( x > A ( t ) , y > B ( t ) ) P(x>A(t),y>B(t)) P(x>A(t),y>B(t))

  如果我们用上面这个概率计算不太好,因为我们不能确定x+y这段时间内事件发生的次数,如果把时间段限定在(A(t)+B(t))之内能够确定事件发生了0次,所以我们修改一下概率表达式

P ( A ( t ) > x , B ( t ) > y ) = P ( N ( x + y ) = 0 ) = e x p ( − λ ( x + y ) ) x ≥ 0 y ≥ 0 P(A(t) >x,B(t) > y) = P(N(x+y)=0) = exp(-\lambda(x+y)) \\ x \geq 0 \quad y \geq 0 P(A(t)>x,B(t)>y)=P(N(x+y)=0)=exp(λ(x+y))x0y0

  然后就可以计算A(t)和B(t)的分布函数了

P ( B ( t ) > y ) = P ( A ( t ) > 0 , B ( t ) > y ) = e x p ( − λ y ) P ( A ( t ) > x ) = P ( A ( t ) > x , B ( t ) > 0 ) = e x p ( − λ x ) P(B(t)>y) = P(A(t)>0,B(t)>y) = exp(-\lambda y) \\ P(A(t)>x) = P(A(t)>x,B(t)>0) = exp(-\lambda x) P(B(t)>y)=P(A(t)>0,B(t)>y)=exp(λy)P(A(t)>x)=P(A(t)>x,B(t)>0)=exp(λx)

  我们发现A(t)和B(t)确实是指数分布。不过,由于A(t)最左边是零点,不能继续延伸了,A(t)实际上上指数分布的延伸。而B(t)是严格的指数分布

  再来看看SN(t+1)-SN(t)这个时间间隔的分布情况。按理来说,两个事件发生的间隔时间确实应该是个指数分布。但是这样就不对了,因为里面两个小的时间分布都是指数,外面还是指数分布。这个情况叫做检验悖论

Insepction Paradox \text{Insepction Paradox} Insepction Paradox

P ( S N ( t + 1 ) − S N ( t ) ≤ t ) = E N ( t ) ( P ( S n + 1 − S n ≤ t ∣ N ( t ) = n ) ) = E ( 1 − e x p ( − λ t ) ) = 1 − e x p ( − λ t ) x P(S_{N(t+1)}-S_{N(t) }\leq t) = E_{N(t)} (P(S_{n+1}- S_n \leq t|N(t)=n)) = E(1 - exp(-\lambda t)) = 1 - exp(-\lambda t) \quad \text{x} P(SN(t+1)SN(t)t)=EN(t)(P(Sn+1SntN(t)=n))=E(1exp(λt))=1exp(λt)x

  按照上面的条件期望求法,两个事件发生间隔的分布应该也是指数分布。但是这么做是错的,因为条件概率后面的条件必须对前面没有影响,这里给的条件会影响前面的分布。0,t内事件发生的次数一旦给定了,事件发生的间隔的分布就变了

2.3.3 间隔时间条件分布求解–微元法引入
(1) t时刻内发生了1次

在这里插入图片描述

  下面我们来求一下,第t+1个事件发生时间和第t个事件发生时间这段间隔的分布。上面说了,增加了一个条件之后,这段时间间隔的分布会受到影响,因此按照上面的条件概率计算方法是错误的。

  我们先举一个例子,假设时间t内只发生了一次事件,然后我们计算第一次事件发生间隔的分布。现在我们既不用但是这段时间内它不发生,也不用担心会发生很多次。因此,这段时间,我们就等着这个事件发生就行,感觉像是一个均匀分布,然后我们计算一下,这段时间发生间隔的分布

N ( t ) = 1 S F S ( x ∣ N ( t ) = 1 ) = P ( S ≤ x ∣ N ( t ) = 1 ) = P ( S ≤ x , N ( t ) = 1 ) P ( N ( t ) = 1 ) = P ( N ( x ) = 1 , N ( t ) − N ( x ) = 0 ) P ( N ( t ) = 1 ) = P ( N ( x ) = 1 ) P ( N ( t ) − N ( x ) = 0 ) P ( N ( t ) = 1 ) = λ x e x p ( − λ x ) e x p ( − λ ( t − x ) ) λ t e x p ( − λ t ) = x t N(t) = 1 \quad S \\ F_S(x|N(t)=1) = P(S \leq x |N(t) = 1) = \frac{ P(S \leq x , N(t) = 1)}{P(N(t)=1)} \\ = \frac{P(N(x) = 1,N(t) - N(x)=0)}{P(N(t)=1)} = \frac{P(N(x)=1)P(N(t)-N(x)=0)}{P(N(t)=1)} \\ = \frac{\lambda x exp(-\lambda x) exp(-\lambda(t-x))}{\lambda t exp(-\lambda t)} = \frac{x}{t} N(t)=1SFS(xN(t)=1)=P(SxN(t)=1)=P(N(t)=1)P(Sx,N(t)=1)=P(N(t)=1)P(N(x)=1,N(t)N(x)=0)=P(N(t)=1)P(N(x)=1)P(N(t)N(x)=0)=λtexp(λt)λxexp(λx)exp(λ(tx))=tx

  对x求导就得到了概率密度

f s ( x ∣ N ( t ) = 1 ) = d d x F S ( x ∣ N ( t ) = 1 ) = 1 t f_s(x|N(t)=1) = \frac{d}{dx} F_S(x|N(t)=1) = \frac{1}{t} fs(xN(t)=1)=dxdFS(xN(t)=1)=t1

  因此在t时刻内只发生1次的基础上求事件发生时刻S的分布,是个均匀分布。而本来第一次事件发生的这个时刻,也就是第一段时间的分布,是个指数分布

S ∣ N ( t ) = 1 ∼ U ( 0 , t ) S|N(t) = 1 \sim U(0,t) SN(t)=1U(0,t)

(2) t时刻内发生了2次

  现在我们修改一下条件,我们假设t时刻内发生了2次事件,我们要求一下s1和s2事件发生时刻的联合分布
F s 1 , s 2 ( x 1 , x 2 ∣ N ( t ) = 2 ) = P ( s 1 ≤ x 1 , s 2 ≤ x 2 ∣ N ( t ) = 2 ) F_{s_1,s_2}(x_1,x_2 |N(t) = 2) = P(s_1 \leq x_1,s_2 \leq x_2 |N(t) = 2) Fs1,s2(x1,x2N(t)=2)=P(s1x1,s2x2N(t)=2)

  因为对于泊松过程有关的分布,我们必须把概率转换为单位时间内发生的次数才能计算。但是这样不好转换,因为s1和s2发生在什么位置没法确定,需要分情况讨论。如果这么做的话,事件发生的一多,就没有办法求解了

在这里插入图片描述

  因此,对于这种问题,比较好的是引入微元法进行处理,我们对事件的发生做双边限制。假设微元delta x1和delta x2中分别发生了一次事件,其他地方没有发生。不过两个事件也可能挤在一个微元里,但是由于概率非常低,是高阶无穷小,取极限后就没了。并且求得的概率除以这个微元之后,得到的就是联合概率密度

Microcell \text{Microcell} Microcell

在这里插入图片描述

f s 1 , s 2 ( x 1 , x 2 ∣ N ( t ) = 2 ) = P ( x 1 ≤ S 1 ≤ x 1 + Δ x 1 , x 2 < S 2 ≤ x 2 + Δ x 2 ∣ N ( t ) = 2 ) Δ x 1 Δ x 2 f_{s_1,s_2}(x_1,x_2 |N(t) = 2) =\frac{P(x_1 \leq S_1 \leq x_1 + \Delta x_1,x_2 < S_2 \leq x_2 +\Delta x_2|N(t)=2)}{\Delta x_1 \Delta x_2} \\ fs1,s2(x1,x2N(t)=2)=Δx1Δx2P(x1S1x1+Δx1,x2<S2x2+Δx2N(t)=2)
  做了双边限制以后,区域就可以分成五段了

P ( x 1 ≤ S 1 ≤ x 1 + Δ x 1 , x 2 < S 2 ≤ x 2 + Δ x 2 ∣ N ( t ) = 2 ) = P ( N ( x 1 ) = 0 , N ( x 1 + Δ x 1 ) − N ( x 1 ) = 1 , N ( x 2 ) − N ( x 1 + Δ x 1 ) = 0 , N ( x 2 + Δ x 2 ) − N ( x 2 ) = 1 , N ( t ) − N ( x 2 + Δ x 2 ) = 0 ∣ N ( t ) = 2 ) P(x_1 \leq S_1 \leq x_1 + \Delta x_1,x_2 < S_2 \leq x_2 +\Delta x_2|N(t)=2) \\ =P(N(x_1)=0,N(x_1 +\Delta x_1) - N(x_1) = 1,\\ N(x_2) -N(x_1 +\Delta x_1)=0,N(x_2 +\Delta x_2) - N(x_2) = 1,N(t)-N(x_2 + \Delta x_2)=0|N(t)=2) P(x1S1x1+Δx1,x2<S2x2+Δx2N(t)=2)=P(N(x1)=0,N(x1+Δx1)N(x1)=1,N(x2)N(x1+Δx1)=0,N(x2+Δx2)N(x2)=1,N(t)N(x2+Δx2)=0N(t)=2)

  由于独立增量特性和平稳增量特性,概率可以独立出来,并且三段没有事件发生的区域可以合并

P ( x 1 ≤ S 1 ≤ x 1 + Δ x 1 , x 2 < S 2 ≤ x 2 + Δ x 2 ∣ N ( t ) = 2 ) = P ( N ( t − Δ x 1 − Δ x 2 ) = 0 , N ( x 1 + Δ x 1 ) − N ( x 1 ) = 1 , N ( x 2 + Δ x 2 ) − N ( x 2 ) = 1 ∣ N ( t ) = 2 ) = P ( N ( t − Δ x 1 − Δ x 2 ) = 0 ) P ( N ( x 1 + Δ x 1 ) − N ( x 1 ) = 1 ) P ( N ( x 2 + Δ x 2 ) − N ( x 2 ) = 1 ) P ( N ( t ) = 2 ) = e x p ( − λ ( t − Δ x 1 − Δ x 2 ) ) λ ( Δ x 1 ) e x p ( − λ x 1 ) λ Δ x 2 ( − λ Δ x 2 ) ( λ t ) 2 e x p ( − λ t ) 2 ! = 2 Δ x 1 Δ x 2 t 2 ( 0 ≤ x 1 ≤ x 2 ≤ t ) P(x_1 \leq S_1 \leq x_1 + \Delta x_1,x_2 < S_2 \leq x_2 +\Delta x_2|N(t)=2) = \\ P(N(t-\Delta x_1 - \Delta x_2)=0,N(x_1 +\Delta x_1) - N(x_1) = 1,N(x_2 +\Delta x_2) - N(x_2) = 1|N(t)=2) \\ = \frac{P(N(t-\Delta x_1 - \Delta x_2)=0)P(N(x_1 +\Delta x_1) - N(x_1) = 1)P(N(x_2 +\Delta x_2) - N(x_2) = 1)}{P(N(t)=2)} \\ = \frac{exp(-\lambda(t-\Delta x_1 - \Delta x_2)) \lambda (\Delta x_1)exp(-\lambda x_1) \lambda \Delta x_2 (-\lambda \Delta x_2)}{\frac{(\lambda t)^2 exp(-\lambda t)}{2!}} \\ = 2\frac{\Delta x_1 \Delta x_2}{t^2} (0 \leq x_1 \leq x_2 \leq t) P(x1S1x1+Δx1,x2<S2x2+Δx2N(t)=2)=P(N(tΔx1Δx2)=0,N(x1+Δx1)N(x1)=1,N(x2+Δx2)N(x2)=1N(t)=2)=P(N(t)=2)P(N(tΔx1Δx2)=0)P(N(x1+Δx1)N(x1)=1)P(N(x2+Δx2)N(x2)=1)=2!(λt)2exp(λt)exp(λ(tΔx1Δx2))λ(Δx1)exp(λx1)λΔx2(λΔx2)=2t2Δx1Δx2(0x1x2t)

  然后就得到了联合概率密度
f s 1 , s 2 ( x 1 , x 2 ∣ N ( t ) = 2 ) = P ( x 1 ≤ S 1 ≤ x 1 + Δ x 1 , x 2 < S 2 ≤ x 2 + Δ x 2 ∣ N ( t ) = 2 ) Δ x 1 Δ x 2 = 2 t 2 ( 0 ≤ x 1 ≤ x 2 ≤ t ) f_{s_1,s_2}(x_1,x_2 |N(t) = 2) =\frac{P(x_1 \leq S_1 \leq x_1 + \Delta x_1,x_2 < S_2 \leq x_2 +\Delta x_2|N(t)=2)}{\Delta x_1 \Delta x_2} \\ = \frac{2}{t^2} (0 \leq x_1 \leq x_2 \leq t)\\ fs1,s2(x1,x2N(t)=2)=Δx1Δx2P(x1S1x1+Δx1,x2<S2x2+Δx2N(t)=2)=t22(0x1x2t)

  注意,我们这个事情在做的时候,已经默认了x1和x2发生是有先后次序的,因此我们必须把这个成立条件放到后面。否则这个联合概率密度积分不是1。

  事实上,我们发现,t时刻内发生了2次的分布,还是一个均价分布,不过这个两次事件的发送不具有独立性,是有顺序关系的。

(3) t时刻内发生了n次

  下面我们来计算t时刻内发生了n次事件的联合分布,我们可以直接写出来这个结果

P ( x 1 < S 2 ≤ x 1 + Δ x 1 , . . . , x n < S n ≤ x n + Δ x n ∣ N ( t ) = n ) = e x p ( − λ ( t − Δ x 1 − . . . − Δ x n ) ∏ k = 1 n λ k Δ x k e x p ( − λ Δ x k ) ( λ t ) n n ! e x p ( − λ t ) = n ! Δ x 1 ∗ . . . ∗ Δ x n t n = n ! t n ∏ k = 1 n Δ x k ( 0 ≤ x 1 ≤ . . . ≤ x n ≤ t ) P(x_1 < S_2 \leq x_1 + \Delta x_1,...,x_n < S_n \leq x_n + \Delta x_n | N(t) = n) \\ = \frac{exp(-\lambda(t-\Delta x_1 - ... - \Delta x_n)\prod_{k=1}^n \lambda_k \Delta x_k exp(-\lambda \Delta x_k)}{\frac{(\lambda t)^n}{n!} exp(-\lambda t)} \\ = n! \frac{\Delta x_1 *...*\Delta x_n}{t^n} = \frac{n!}{t^n} \prod_{k=1}^n \Delta x_k (0 \leq x_1 \leq ...\leq x_n \leq t) P(x1<S2x1+Δx1,...,xn<Snxn+ΔxnN(t)=n)=n!(λt)nexp(λt)exp(λ(tΔx1...Δxn)k=1nλkΔxkexp(λΔxk)=n!tnΔx1...Δxn=tnn!k=1nΔxk(0x1...xnt)

  联合概率密度

f S 1 , . . , S n ∣ N ( t ) = n = n ! t n ( 0 ≤ x 1 ≤ . . . ≤ x n ≤ t ) f_{S_1,..,S_n|N(t)=n} = \frac{n!}{t^n} (0 \leq x_1 \leq ...\leq x_n \leq t) fS1,..,SnN(t)=n=tnn!(0x1...xnt)

  我们又得到了一个均匀,但是又不独立的分布。

2.3.4 顺序统计量

  接下来我们引入一个顺序统计量的概念

Order Statistics { Z 1 , Z 2 , . . . , Z n } ∼ ( i . i . d ) f Z ( x ) \text{Order Statistics} \\ \{Z_1,Z_2,...,Z_n \} \sim(i.i.d) \quad f_Z(x) Order Statistics{Z1,Z2,...,Zn}(i.i.d)fZ(x)

  我们假设有n个独立同分布的随机变量

  Y1到Yn分别对应着(Z1,…,Zn)中第1小,第2小,…,第n小的随机变量

Y 1 = m i n ( Z 1 , . . . , Z n ) Y 2 = m i n 2 ( Z 1 , . . . , Z n ) . . . Y n = m a x ( Z 1 , . . . , Z n ) Y_1 = min(Z_1,...,Z_n) \\ Y_2 = min_2(Z_1,...,Z_n) \\ ... \\ Y_n = max(Z_1,...,Z_n) Y1=min(Z1,...,Zn)Y2=min2(Z1,...,Zn)...Yn=max(Z1,...,Zn)

  得到的Y1,…,Yn就叫做顺序统计量

( Y 1 , . . . , Y n )  is order Statistics of  ( Z 1 , . . . , Z n ) (Y_1,...,Y_n) \text{ is order Statistics of }(Z_1,...,Z_n) (Y1,...,Yn) is order Statistics of (Z1,...,Zn)

  这里需要解释一下随机变量的最小值和最大值。他们并不是指代Z里面具体的随机变量,Y仍然是个随机变量。随机变量是个函数,是样本空间映射到实数轴的函数

在这里插入图片描述

  比如蓝色线是Z1的样本轨道,黄色线是Z2的样本轨道,橙色线就是min(Z1,Z2)

  顺序统计量的不独立的

2.3.5 顺序统计量的分布

  下面我们尝试来计算一下顺序统计量的分布

(1)最大值的分布

  首先我们来算一下最大值的分布

Y n = m a x ( Z 1 , . . . , Z n ) F Y n ( y ) = P ( z 1 ≤ y , . . . , z n ≤ y ) = ( P ( Z 1 ≤ y ) ) n = ( F Z ( y ) ) n f Y n ( y ) = d F Y n ( y ) d y = n ( F Z ( x ) ) n − 1 F Z ′ ( x ) = n ( F Z ( x ) ) n − 1 f Z ( x ) Y_n = max(Z_1,...,Z_n) \\ F_{Y_n}(y) = P(z_1 \leq y,...,z_n \leq y) = (P(Z_1 \leq y))^n = (F_Z(y))^n \\ f_{Y_n}(y) = \frac{dF_{Y_n}(y)}{ dy} = n (F_Z(x))^{n-1} F_Z'(x) = n (F_Z(x))^{n-1} f_Z(x) Yn=max(Z1,...,Zn)FYn(y)=P(z1y,...,zny)=(P(Z1y))n=(FZ(y))nfYn(y)=dydFYn(y)=n(FZ(x))n1FZ(x)=n(FZ(x))n1fZ(x)

(2) 最小值的分布

  然后一算一下最小值的分布

Y 1 = m i n ( Z 1 , . . . , Z n ) F Y 1 ( y ) = P ( Y 1 ≤ y ) = 1 − P ( Y 1 > y ) = 1 − P ( y < Z 1 , . . . , y < Z n ) = 1 − P ( y < Z 1 ) . . . P ( y < Z n ) = 1 − ( 1 − P ( y > Z 1 ) ) . . . ( 1 − P ( y > Z n ) ) = 1 − ( 1 − F Z ( y ) ) n ⇒ f Y 1 ( y ) = n ( 1 − F Z ( y ) ) n − 1 f Z ( y ) Y_1 = min(Z_1,...,Z_n) \\ F_{Y_1}(y) = P(Y_1 \leq y) = 1- P(Y_1 >y) \\ = 1- P(y< Z_1,...,y< Z_n) \\ = 1- P(y < Z_1) ...P(y<Z_n) \\ =1- (1-P(y>Z_1))...(1-P(y>Z_n)) \\ = 1- (1-F_Z(y))^n \\ \Rightarrow f_{Y_1} (y) = n(1-F_Z(y))^{n-1} f_Z(y) Y1=min(Z1,...,Zn)FY1(y)=P(Y1y)=1P(Y1>y)=1P(y<Z1,...,y<Zn)=1P(y<Z1)...P(y<Zn)=1(1P(y>Z1))...(1P(y>Zn))=1(1FZ(y))nfY1(y)=n(1FZ(y))n1fZ(y)

(3) 顺序统计量的一元分布

  我们可以直接求最大值的分布,也可以用差值的方法表示最小值的分布。但是中间的那些顺序统计量就不容易表示了。

Y k F Y k ( y ) = P ( Y k < y ) ? Y_k \\ F_{Y_k}(y) = P(Y_k < y) \quad ? YkFYk(y)=P(Yk<y)?

  我们可以用微元法进行处理

F Y k ( y + Δ y ) − F Y k ( y ) = P ( y < Y k ≤ y + Δ y ) F_{Y_k}(y +\Delta y) - F_{Y_k}(y) = P(y <Y_k \leq y+ \Delta y) FYk(y+Δy)FYk(y)=P(y<Yky+Δy)

  这个式子除以delta y,再令delta y 趋近于0,即可得到概率密度

P ( Z < y ) = F Z ( y ) P ( Z > y + Δ y ) = 1 − P ( Z < y + Δ y ) = 1 − F Z ( y + Δ y ) P ( y < Z < y + Δ y ) = F Z ( y + Δ y ) − F Z ( y ) P(Z <y) = F_Z(y) \\ P(Z > y + \Delta y) = 1- P(Z < y+\Delta y) = 1- F_Z(y +\Delta y) \\ P(y<Z<y+\Delta y) = F_Z(y+ \Delta y) - F_Z(y) P(Z<y)=FZ(y)P(Z>y+Δy)=1P(Z<y+Δy)=1FZ(y+Δy)P(y<Z<y+Δy)=FZ(y+Δy)FZ(y)

  我们计算一下这个式子,这个式子可以把区间划分为三段,前面有k-1个Z比y小,后面有n-k+1个Z比y+delta y 大,然后再乘y到y+delta y的分布即可

F Y k ( y + Δ y ) − F Y k ( y ) = P ( y < Y k ≤ y + Δ y ) = ( F Z ( y ) ) k − 1 ( 1 − F Z ( y + Δ y ) ) n − k ( F Z ( y + Δ y ) − F Z ( y ) ) F_{Y_k}(y +\Delta y) - F_{Y_k}(y) = P(y <Y_k \leq y+ \Delta y) \\ = (F_Z(y))^{k-1} (1-F_Z(y+ \Delta y))^{n-k}(F_Z(y + \Delta y) - F_Z(y)) FYk(y+Δy)FYk(y)=P(y<Yky+Δy)=(FZ(y))k1(1FZ(y+Δy))nk(FZ(y+Δy)FZ(y))

  但是只是这么表达还不够,因为我们不知道是哪k-1个随机变量Z在前面,哪个随机变量Z在中间,哪n-k个随机变量Z在后面,我们这么求的概率只是其中一种情况。我们还需要加入组合数

Z 1 , ( Z 2 ) , Z 3 Z 2 , ( Z 1 ) , Z 3 . . . Z_1,(Z_2),Z_3 \\ Z_2,(Z_1),Z_3 \\ ... Z1,(Z2),Z3Z2,(Z1),Z3...
  引入组合数

F Y k ( y + Δ y ) − F Y k ( y ) = P ( y < Y k ≤ y + Δ y ) = C n k − 1 C n − k + 1 n − k C 1 1 ( F Z ( y ) ) k − 1 ( 1 − F Z ( y + Δ y ) ) n − k ( F Z ( y + Δ y ) − F Z ( y ) ) F_{Y_k}(y +\Delta y) - F_{Y_k}(y) = P(y <Y_k \leq y+ \Delta y) \\ = C_{n}^{k-1} C_{n-k+1}^{n-k}C_{1}^{1}(F_Z(y))^{k-1} (1-F_Z(y+ \Delta y))^{n-k}(F_Z(y + \Delta y) - F_Z(y)) FYk(y+Δy)FYk(y)=P(y<Yky+Δy)=Cnk1Cnk+1nkC11(FZ(y))k1(1FZ(y+Δy))nk(FZ(y+Δy)FZ(y))

  我们就可以得到Yk的概率密度函数了

f Y k ( y ) = l i m Δ y → 0 F Y k ( y + Δ y ) − F Y k ( y ) Δ y = l i m Δ y → 0 C n k − 1 C n − k + 1 n − k C 1 1 ( F Z ( y ) ) k − 1 ( 1 − F Z ( y + Δ y ) ) n − k ( F Z ( y + Δ y ) − F Z ( y ) ) Δ y = C n k − 1 C n − k + 1 n − k C 1 1 ( F Z ( y ) ) k − 1 l i m Δ y → 0 ( 1 − F Z ( y + Δ y ) ) n − k l i m Δ y → 0 F Z ( y + Δ y ) − F Z ( y ) Δ y = C n k − 1 C n − k + 1 n − k ( F Z ( y ) ) k − 1 ( 1 − F Z ( y ) ) n − k f Z ( y ) f_{Y_k}(y) = lim_{\Delta y \rightarrow 0}\frac{F_{Y_k}(y +\Delta y) - F_{Y_k}(y)}{\Delta y} \\ = lim_{\Delta y \rightarrow 0}\frac{C_{n}^{k-1} C_{n-k+1}^{n-k}C_{1}^{1}(F_Z(y))^{k-1} (1-F_Z(y+ \Delta y))^{n-k}(F_Z(y + \Delta y) - F_Z(y))}{\Delta y} \\ = C_{n}^{k-1} C_{n-k+1}^{n-k}C_{1}^{1}(F_Z(y))^{k-1} lim_{\Delta y \rightarrow 0}(1-F_Z(y+ \Delta y))^{n-k} lim_{\Delta y \rightarrow 0} \frac{F_Z(y + \Delta y) - F_Z(y)}{\Delta y} \\ = C_{n}^{k-1} C_{n-k+1}^{n-k}(F_Z(y))^{k-1} (1-F_Z(y))^{n-k} f_Z(y) fYk(y)=limΔy0ΔyFYk(y+Δy)FYk(y)=limΔy0ΔyCnk1Cnk+1nkC11(FZ(y))k1(1FZ(y+Δy))nk(FZ(y+Δy)FZ(y))=Cnk1Cnk+1nkC11(FZ(y))k1limΔy0(1FZ(y+Δy))nklimΔy0ΔyFZ(y+Δy)FZ(y)=Cnk1Cnk+1nk(FZ(y))k1(1FZ(y))nkfZ(y)

  然后我们就得到了顺序统计量的一元分布

(4) 顺序统计量的二元分布

  我们继续再来分析顺序统计量的二元分布,依旧使用微元法

在这里插入图片描述

  我们可以直接写出这分布函数,由于k和m有顺序,需要进行标注

f Y k , Y m ( y k , y m ) = C n k − 1 C n − k + 1 1 C n − k m − k + 1 C n − m + 1 1 C n − m n − m ∗ ( F Z ( y k ) ) k − 1 f Z ( y k ) ( F Z ( y m ) − F Z ( y k ) ) m − k + 1 f Z ( y m ) ( 1 − F Z ( y m ) ) n − m ( y k ≤ y m ) f_{Y_k,Y_m}(y_k,y_m) = C_{n}^{k-1}C_{n-k+1}^{1}C_{n-k}^{m-k+1}C_{n-m+1}^{1}C_{n-m}^{n-m}* \\ (F_Z(y_k))^{k-1} f_{Z}(y_k) (F_Z(y_m) - F_Z(y_k))^{m-k+1} f_Z(y_m) (1-F_Z(y_m))^{n-m} \\ (y_k \leq y_m) fYk,Ym(yk,ym)=Cnk1Cnk+11Cnkmk+1Cnm+11Cnmnm(FZ(yk))k1fZ(yk)(FZ(ym)FZ(yk))mk+1fZ(ym)(1FZ(ym))nm(ykym)

(5) 顺序统计量的n元分布

  要写顺序

f Y 1 , . . . , Y n ( y 1 , . . . , y n ) = C n 1 C n − 1 1 . . . C 1 1 f Z ( y 1 ) . . . f Z ( y n ) = n ! f Z ( y 1 ) . . . f Z ( y n ) ( y 1 ≤ y 2 ≤ . . . ≤ y n ) f_{Y_1,...,Y_n}(y_1,...,y_n) = C_{n}^{1}C_{n-1}^{1}...C_{1}^{1} f_Z(y_1) ...f_Z(y_n) \\ = n! f_Z(y_1) ...f_Z(y_n) \\ (y_1 \leq y_2 \leq ... \leq y_n) fY1,...,Yn(y1,...,yn)=Cn1Cn11...C11fZ(y1)...fZ(yn)=n!fZ(y1)...fZ(yn)(y1y2...yn)

  现在我们知道了,我们限制(0,t)内事件发生n次,然后求n个事件发生时刻的联合分布,其实得到的就是一个顺序统计量的n元分布

2.3.6 顺序统计量的应用

  顺序统计量可以用来计算设备的寿命。因为如果器件是串联的,寿命取决于器件寿命的最小值。如果器件是并联的,寿命取决于器件寿命的最大值,如果又有串联又有并联,我们就需要既取出最小值,又要取出最大值。

2.3.7 过滤泊松过程

  有了顺序统计量之后,我们就可以放松独立增量性质了。

(1) 独立增量的本质

Independent Increment \text{Independent Increment} Independent Increment

  在放松独立增量性质之前,我们首先要考虑,独立增量的本质是什么。我们知道平稳增量影响的是事件发生的强度,稀疏性影响的是每次事件发生的影响。

在这里插入图片描述

  我们可以发现,之所以时间差之间是独立的,其根本原因在于,每次事件发生,对系统产生了影响之后,其输入和输出是一样的。因此,可以通过两个时刻做差的形式,让前面产生的影响与后面抵消掉。也就是说,独立性的本质在于,系统对事件的时间响应是直线。一旦响应随着时间的变化不是固定的了,独立增量特性就消失了。

在这里插入图片描述

  因此,如果我们想要放松独立增量特性,只要让这个台阶不平就行。

(2) 过滤泊松过程模型的建立

  然后我们就可以建立新的模型了

Z ( t ) = ∑ k = 1 N ( t ) Z k ( t , S k ) Z(t) = \sum_{k=1}^{N(t)} Z_k(t,S_k) Z(t)=k=1N(t)Zk(t,Sk)

  我们让每次事件的影响不但与时间t有关,还与事件发生的时刻有关。

  这个模型依赖于三个随机变量,事件发生的次数N(t)是随机变量,事件发生的时间Sk是随机变量,事件发生的影响Zk也是随机变量

(3) 分布函数求解

  下面,我们想求这个随机过程的分布函数。我们用特征函数来进行求解

ϕ Z ( t ) ( ω ) = E ( e x p ( j ω Z ( t ) ) ) = E ( e x p ( j ω ∑ k = 1 N ( t ) Z k ( t , S k ) ) ) \phi_{Z(t)}(\omega) = E(exp(j\omega Z(t))) = E(exp(j\omega\sum_{k=1}^{N(t)} Z_k(t,S_k) )) ϕZ(t)(ω)=E(exp(jωZ(t)))=E(exp(jωk=1N(t)Zk(t,Sk)))

  用条件概率来进行处理。我们同时限制事件发生时间和次数,来求事件发生影响的期望

ϕ Z ( t ) ( ω ) = E N ( t ) , S k ( E Z k ( e x p ( j ω ∑ k = 1 N ( t ) Z k ( t , S k ) ) ∣ S 1 , . . . , S n , N ( t ) = n ) ) = E N ( t ) , S k ( ∏ k = 1 N ( t ) E Z k ( e x p ( j ω Z k ( t , S k ) ) ) ) Let  B k ( t , S k ) = E ( e x p ( j ω Z k ( t , S k ) ) ) Then  ϕ Z ( t ) ( ω ) = E N ( t ) , S k ( ∏ k = 1 N ( t ) B k ( t , S k ) ) = E N ( t ) ( E S k ( ∏ k = 1 n B k ( t , S k ) ∣ N ( t ) = n ) ) \phi_{Z(t)}(\omega) = E_{N(t),S_k}(E_{Z_k}(exp(j\omega\sum_{k=1}^{N(t)} Z_k(t,S_k))|S_1,...,S_n,N(t)=n)) \\ = E_{N(t),S_k}(\prod_{k=1}^{N(t)}E_{Z_k}(exp(j\omega Z_k(t,S_k)))) \\ \text{Let } B_k(t,S_k) = E(exp(j\omega Z_k(t,S_k))) \\ \text{Then } \\ \phi_{Z(t)}(\omega) = E_{N(t),S_k}(\prod_{k=1}^{N(t)} B_k(t,S_k)) \\ = E_{N(t)} (E_{S_k}(\prod_{k=1}^{n} B_k(t,S_k) |N(t)=n)) ϕZ(t)(ω)=EN(t),Sk(EZk(exp(jωk=1N(t)Zk(t,Sk))S1,...,Sn,N(t)=n))=EN(t),Sk(k=1N(t)EZk(exp(jωZk(t,Sk))))Let Bk(t,Sk)=E(exp(jωZk(t,Sk)))Then ϕZ(t)(ω)=EN(t),Sk(k=1N(t)Bk(t,Sk))=EN(t)(ESk(k=1nBk(t,Sk)N(t)=n))

  现在就变成了,我们现在(0,t)内事件发生了n次,求n个事件的联合分布的问题了

E N ( t ) ( E S k ( ∏ k = 1 n B k ( t , S k ) ∣ N ( t ) = n ) ) = E N ( t ) ( ∫ . . . ∫ 0 ≤ S 1 ≤ . . . ≤ S n ∏ k = 1 n B k ( t , S k ) n ! t n d S 1 . . . d S n ) E_{N(t)} (E_{S_k}(\prod_{k=1}^{n} B_k(t,S_k) |N(t)=n)) \\ =E_{N(t)}(\int ...\int_{0 \leq S_1 \leq ... \leq S_n}\prod_{k=1}^{n} B_k(t,S_k) \frac{n!}{t^n}dS_1...dS_n) EN(t)(ESk(k=1nBk(t,Sk)N(t)=n))=EN(t)(...0S1...Snk=1nBk(t,Sk)tnn!dS1...dSn)

  这个积分其实可以看做是棱锥的一部分切块。我们可以做个试验。假设有一个x=y=z=100mm的三棱锥

在这里插入图片描述

Suppose 0 < x 1 < x 2 < 100 \text{Suppose} \\ 0<x_1 <x_2 < 100 Suppose0<x1<x2<100

  我们在x,y,z上分布选取这样的部分

x ∈ ( 0 , x 1 ) y ∈ ( x 1 , x 2 ) z ∈ ( x 2 , 100 ) x\in(0,x_1) \\ y \in(x_1,x_2) \\ z \in(x_2,100) x(0,x1)y(x1,x2)z(x2,100)

在这里插入图片描述

  按照这样的顺序选取,就得到了完整三菱柱的一部分。这样的选取方法有3!种,并且每种选取方法得到的体积都是一样的,因此如果我们要求这个三棱锥这种有次序的积分所得到的面积,可以表述为

∫ ∫ ∫ 0 < x < y < z = t f ( x , y , z ) d x d y d z = 1 3 ! ∫ 0 t ∫ 0 t ∫ 0 t f ( x , y , z ) d x d y d z \int \int \int _{0<x<y<z=t} f(x,y,z) dxdydz = \frac{1}{3!} \int_{0}^{t}\int_{0}^{t}\int_{0}^{t} f(x,y,z)dxdydz 0<x<y<z=tf(x,y,z)dxdydz=3!10t0t0tf(x,y,z)dxdydz

  我们就可以使用这种性质,来求解我们的顺序统计量积分

ϕ Z ( t ) ( ω ) = E N ( t ) ( ∫ . . . ∫ 0 ≤ S 1 ≤ . . . ≤ S n ∏ k = 1 n B k ( t , S k ) n ! t n d S 1 . . . d S n ) = E N ( t ) ( 1 n ! ∫ 0 t . . . ∫ 0 t ∏ k = 1 n B k ( t , S k ) n ! t n d S 1 . . . d S n ) = E N ( t ) ( 1 t n ( ∫ 0 t B ( t , S ) d S ) n ) = E N ( t ) ( ( 1 t ∫ 0 t B ( t , S ) d S ) N ( t ) ) \phi_{Z(t)}(\omega) = E_{N(t)}(\int ...\int_{0 \leq S_1 \leq ... \leq S_n}\prod_{k=1}^{n} B_k(t,S_k) \frac{n!}{t^n}dS_1...dS_n) \\ = E_{N(t)}(\frac{1}{n!}\int_{0}^{t}...\int_{0}^{t}\prod_{k=1}^{n} B_k(t,S_k) \frac{n!}{t^n}dS_1...dS_n) \\ = E_{N(t)}(\frac{1}{t^n}(\int_{0}^t B(t,S)dS)^n) \\ = E_{N(t)}((\frac{1}{t}\int_{0}^t B(t,S)dS)^{N(t)}) ϕZ(t)(ω)=EN(t)(...0S1...Snk=1nBk(t,Sk)tnn!dS1...dSn)=EN(t)(n!10t...0tk=1nBk(t,Sk)tnn!dS1...dSn)=EN(t)(tn1(0tB(t,S)dS)n)=EN(t)((t10tB(t,S)dS)N(t))

  这是一个类似母函数的形式

Let  Z = 1 t ∫ 0 t B ( t , S ) d S E ( Z N ( t ) ) ∣ Z = 1 t ∫ 0 t B ( t , S ) d S = G N ( t ) ( Z ) = e x p ( λ t ( Z − 1 ) ) ∣ Z = 1 t ∫ 0 t B ( t , S ) d S = e x p ( λ t ( 1 t ∫ 0 t B ( t , S ) d S − 1 ) ) = e x p ( λ ( ∫ 0 t B ( t , S ) d S − t ) ) = e x p ( λ ∫ 0 t ( B ( t , S ) − 1 ) d S ) \text{Let } Z = \frac{1}{t}\int_{0}^t B(t,S)dS \\ E(Z^{N(t)})|_{Z = \frac{1}{t}\int_{0}^t B(t,S)dS} \\ = G_{N(t)}(Z) = exp(\lambda t(Z-1))|_{Z = \frac{1}{t}\int_{0}^t B(t,S)dS} \\ = exp(\lambda t (\frac{1}{t}\int_{0}^t B(t,S)dS -1)) \\ = exp(\lambda (\int_{0}^t B(t,S)dS -t)) \\ = exp(\lambda \int_{0}^t (B(t,S)-1) dS) Let Z=t10tB(t,S)dSE(ZN(t))Z=t10tB(t,S)dS=GN(t)(Z)=exp(λt(Z1))Z=t10tB(t,S)dS=exp(λt(t10tB(t,S)dS1))=exp(λ(0tB(t,S)dSt))=exp(λ0t(B(t,S)1)dS)

  再把B(t,s)代回来

ϕ Z ( t ) ( ω ) = e x p ( λ ∫ 0 t ( E ( e x p ( j ω Z ( t , S ) ) ) − 1 ) d S ) \phi_{Z(t)}(\omega) = exp(\lambda \int_{0}^t ( E(exp(j\omega Z(t,S))) -1) dS) ϕZ(t)(ω)=exp(λ0t(E(exp(jωZ(t,S)))1)dS)

  得到的这个形式叫做过滤泊松过程

Filtering Poisson \text{Filtering Poisson} Filtering Poisson

在这里插入图片描述

  因为这个相当于多个泊松冲激通过线性系统得到响应的叠加

(4) 过滤泊松过程的均值

  我们可以用特征函数求均值

ϕ Z ( ω ) = E ( e x p ( j ω Z ) ) d ϕ Z ( ω ) d ω ∣ ω = 0 = E ( j Z e x p ( j ω Z ) ) ∣ ω = 0 = E ( j Z ) = j E ( Z ) ⇒ E ( Z ) = 1 j d ϕ Z ( ω ) d ω ∣ ω = 0 \phi_Z(\omega) = E(exp(j\omega Z)) \\ \frac{d\phi_Z(\omega)}{d\omega}|_{\omega = 0} = E(jZexp(j\omega Z)) |_{\omega = 0} = E(jZ) = jE(Z) \\ \Rightarrow E(Z) = \frac{1}{j} \frac{d\phi_Z(\omega)}{d\omega}|_{\omega = 0} ϕZ(ω)=E(exp(jωZ))dωdϕZ(ω)ω=0=E(jZexp(jωZ))ω=0=E(jZ)=jE(Z)E(Z)=j1dωdϕZ(ω)ω=0

  我们来求一下均值

ϕ Z ( t ) ( ω ) = e x p ( λ ∫ 0 t ( E ( e x p ( j ω Z ( t , S ) ) ) − 1 ) d S ) 1 j d ϕ Z ( ω ) d ω = 1 j e x p ( λ ∫ 0 t ( E ( e x p ( j ω Z ( t , S ) ) ) − 1 ) d S ) ∣ ω = 0 ∗ d ( λ ∫ 0 t ( E ( e x p ( j ω Z ( t , S ) ) ) − 1 ) d S ) ) d ω = 1 j d ( λ ∫ 0 t ( E ( e x p ( j ω Z ( t , S ) ) ) − 1 ) d S ) ) d ω = 1 j λ ∫ 0 t d ( E ( e x p ( j ω Z ( t , S ) ) ) − 1 ) ) d ω d S = 1 j λ ∫ 0 t j Z ( t , S ) E ( e x p ( j ω Z ( t , S ) ) ) ∣ ω = 0 d S = 1 j λ ∫ 0 t j Z ( t , S ) d S = λ ∫ 0 t Z ( t , S ) d S \phi_{Z(t)}(\omega) = exp(\lambda \int_{0}^t ( E(exp(j\omega Z(t,S))) -1) dS) \\ \frac{1}{j}\frac{d\phi_Z(\omega)}{d\omega} = \frac{1}{j}exp(\lambda \int_{0}^t ( E(exp(j\omega Z(t,S))) -1) dS)|_{\omega = 0} *\frac{d(\lambda \int_{0}^t ( E(exp(j\omega Z(t,S))) -1) dS))}{d \omega} \\ = \frac{1}{j}\frac{d(\lambda \int_{0}^t ( E(exp(j\omega Z(t,S))) -1) dS))}{d \omega} \\ = \frac{1}{j}\lambda \int_{0}^t\frac{d ( E(exp(j\omega Z(t,S))) -1) )}{d \omega}dS \\ = \frac{1}{j}\lambda \int_{0}^tjZ(t,S)E(exp(j\omega Z(t,S)))|_{\omega = 0}dS \\ = \frac{1}{j}\lambda \int_{0}^tjZ(t,S) dS \\ = \lambda \int_{0}^t Z(t,S) dS ϕZ(t)(ω)=exp(λ0t(E(exp(jωZ(t,S)))1)dS)j1dωdϕZ(ω)=j1exp(λ0t(E(exp(jωZ(t,S)))1)dS)ω=0dωd(λ0t(E(exp(jωZ(t,S)))1)dS))=j1dωd(λ0t(E(exp(jωZ(t,S)))1)dS))=j1λ0tdωd(E(exp(jωZ(t,S)))1))dS=j1λ0tjZ(t,S)E(exp(jωZ(t,S)))ω=0dS=j1λ0tjZ(t,S)dS=λ0tZ(t,S)dS

  注意,因为这里面的期望是对S求的,所以jZ可以从期望里面拿出去

  于是我们就得到了过滤泊松过程的期望

(4) 过滤泊松过程的方差

  为了简化计算,我们假设冲激响应本身没有随机性。

B ( t , S ) = e x p ( j ω Z ( t , S ) ) ϕ Z ( t ) ( ω ) = e x p ( λ ∫ 0 t ( e x p ( j ω Z ( t , S ) ) − 1 ) d S ) E ( Z 2 ) = − d 2 ϕ Z ( ω ) d ω 2 ∣ ω = 0 = λ ∫ 0 t Z 2 ( t , S ) d S + ( λ ∫ 0 t Z ( t , S ) d S ) 2 V a r ( Z ) = E ( Z 2 ) − ( E ( Z ) ) 2 = λ ∫ 0 t Z 2 ( t , S ) d S B(t,S) = exp(j\omega Z(t,S)) \\ \phi_{Z(t)}(\omega) = exp(\lambda \int_{0}^t ( exp(j\omega Z(t,S)) -1) dS) \\ E(Z^2) = -\frac{d^2\phi_Z(\omega)}{d\omega^2}|_{\omega = 0} \\ = \lambda \int_{0}^t Z^2(t,S)dS + (\lambda \int_{0}^t Z(t,S)dS)^2 Var(Z) = E(Z^2)-(E(Z))^2 = \lambda \int_{0}^t Z^2(t,S)dS B(t,S)=exp(jωZ(t,S))ϕZ(t)(ω)=exp(λ0t(exp(jωZ(t,S))1)dS)E(Z2)=dω2d2ϕZ(ω)ω=0=λ0tZ2(t,S)dS+(λ0tZ(t,S)dS)2Var(Z)=E(Z2)(E(Z))2=λ0tZ2(t,S)dS

2.3.8 小结

  过滤泊松过程是泊松过程中最复杂的一个问题,我们在这个问题中做了这样的事情

  • 首先,我们认识到了一个基本的事实,如果一个时间段内发生事件的次数成为了一个条件,这个事件发生的时间间隔将不是一个指数分布了
  • 然后,我们利用微元法求解这个条件期望,得到了一个不独立的均匀分布
  • 继续,我们引入了顺序统计量,解释了这个不独立的均匀分布的本质是什么
  • 然后我们讨论了泊松过程的独立增量特性的本质是什么,并且,我们提出,如果要放松独立增量特性,就必须改变台阶的平缓性
  • 然后我们建立了新的模型,新的模型中有三个随机变量,我们利用特征函数的形式,写成了一个复杂的积分
  • 最后,我们利用这个积分是对称函数的性质,解出了这个积分,最后得到了过滤泊松过程的特征函数,并且基于这个特征函数求得了过滤泊松过程的均值

3. 更新过程

3.1 概述

  之前我们研究的泊松过程的推广,主要着眼于对泊松过程三个重要性质的放松。现在,我们从事件发生的间隔开始推广。一般泊松过程的事件发生间隔是独立同分布的指数分布,现在我们假定,事件发生的间隔是独立同分布的任意间隔,得到的新的随机过程叫做更新过程

Renewal Processes \text{Renewal Processes} Renewal Processes

  我们假定有计数过程N(t),其事件发生的间隔Tk为独立同分布的随机变量,概率分布函数和密度函数分别是FT(x)和fT(x),则称N(t)为更新过程

{ N ( t ) , t ≥ 0 } { T k , k ∈ N } T k ∼ f T ( x ) \{N(t),t\geq 0 \} \\ \{ T_k, k \in N\} \\ T_k \sim f_T(x) {N(t),t0}{Tk,kN}TkfT(x)

3.2 N(t)的分布与期望

3.2.1 分布

P ( N ( t ) = n ) = P ( N ( t ) ≥ n ) − P ( N ( t ) ≥ n + 1 ) = P ( S n < t ) − P ( S n + 1 < t ) P(N(t)=n) = P(N(t) \geq n) - P(N(t) \geq n+1) \\ = P(S_n <t) - P(S_{n+1}<t) P(N(t)=n)=P(N(t)n)P(N(t)n+1)=P(Sn<t)P(Sn+1<t)

  其中Sn是第n次事件发生的时刻

S n = T 1 + . . + T n S_n = T_1 +..+T_n Sn=T1+..+Tn

  我们知道,独立同分布随机变量的和的分布是这些随机变量分布的n重卷积

ϕ S n ( ω ) = E ( e x p ( j ω S n ) ) = E ( e x p ( j ω ( T 1 + . . . + T n ) ) ) = ∏ k = 1 n E ( e x p ( j ω T k ) ) \phi_{S_n}(\omega) = E(exp(j\omega S_n)) \\ = E(exp(j\omega(T_1+...+T_n))) = \prod_{k=1}^n E(exp(j\omega T_k)) ϕSn(ω)=E(exp(jωSn))=E(exp(jω(T1+...+Tn)))=k=1nE(exp(jωTk))

  特征函数相当于是频域,频域的乘积必定对应时域的卷积。

  因此,这个计数过程的分布能够表示,但是不容易表示

3.2.2 期望
(1)与期望有关的变形

  如果不能用分布对一个随机变量进行刻画,我们就希望通过期望来对其进行粗略描绘

  假设期望是mN(t)

m N ( t ) = E ( N ( t ) ) = ∑ n = 1 ∞ n P ( N ( t ) = n ) ( a − 1 ) m_N(t) = E(N(t)) = \sum_{n=1}^\infty n P(N(t)=n) \quad\quad(a-1) mN(t)=E(N(t))=n=1nP(N(t)=n)(a1)

  我们在这里证明先一个与期望有关的变形关系

Prove E ( X ) = ∑ n = 1 ∞ n P ( X = n ) = ∑ n = 1 ∞ P ( X ≥ n ) ( a − 2 ) \text{Prove} \\ E(X)=\sum_{n=1}^\infty n P(X=n) = \sum_{n=1}^{\infty} P(X \geq n) \quad\quad(a-2) ProveE(X)=n=1nP(X=n)=n=1P(Xn)(a2)

  这个形式是离散的形式

E ( X ) = ∑ n = 1 ∞ n P ( X = n ) = ∑ n = 1 ∞ n ( P ( X ≥ n ) − P ( X ≥ n + 1 ) ) = ∑ n = 1 ∞ ( n + 1 ) P ( X ≥ n + 1 ) + P ( X ≥ 1 ) − n P ( X ≥ n + 1 ) = ∑ n = 1 ∞ P ( X ≥ n + 1 ) + P ( X ≥ 1 ) = ∑ n = 1 ∞ P ( X ≥ n ) ( a − 3 ) E(X)=\sum_{n=1}^\infty n P(X=n) \\ = \sum_{n=1}^\infty n(P(X\geq n) - P(X\geq n+1)) \\ = \sum_{n=1}^\infty (n+1)P(X\geq n+1)+P(X \geq 1) -n P(X\geq n+1) \\ = \sum_{n=1}^\infty P(X\geq n+1) +P(X \geq 1) \\ = \sum_{n=1}^\infty P(X\geq n) \quad\quad(a-3) E(X)=n=1nP(X=n)=n=1n(P(Xn)P(Xn+1))=n=1(n+1)P(Xn+1)+P(X1)nP(Xn+1)=n=1P(Xn+1)+P(X1)=n=1P(Xn)(a3)

  我们就完成了对(a-2)式子的证明

  这种期望的变形关系也可以推广到连续随机变量上

Prove ∫ 0 ∞ P ( X > t ) d t = ∫ 0 ∞ x f ( x ) d t = E ( X ) ( b − 1 ) \text{Prove} \int_{0}^{\infty} P(X>t)dt = \int_{0}^{\infty} xf(x)dt = E(X) \quad\quad(b-1) Prove0P(X>t)dt=0xf(x)dt=E(X)(b1)

  我们假设X的分布函数是F(x),概率密度函数是f(x),然后开始证明

∫ 0 ∞ P ( X > t ) d t = ∫ 0 ∞ ∫ t ∞ I d F ( x ) d t \int_{0}^{\infty} P(X>t)dt = \int_{0}^{\infty} \int_{t}^{\infty} IdF(x)dt 0P(X>t)dt=0tIdF(x)dt

  然后交换x和t的积分限

在这里插入图片描述

∫ 0 ∞ P ( X > t ) d t = ∫ 0 ∞ ∫ t ∞ I d F ( x ) d t = ∫ 0 ∞ ∫ 0 x I d t d F ( x ) = ∫ 0 ∞ x d F ( x ) = E ( X ) ( b − 2 ) \int_{0}^{\infty} P(X>t)dt = \int_{0}^{\infty} \int_{t}^{\infty} IdF(x)dt \\ = \int_{0}^{\infty} \int_{0}^x I dt dF(x) \\ = \int_{0}^{\infty} x dF(x) =E(X) \quad\quad(b-2) 0P(X>t)dt=0tIdF(x)dt=00xIdtdF(x)=0xdF(x)=E(X)(b2)

(2)期望的求解

  有了(a-2)式之后,我们就能够对期望进行表示了

m N ( t ) = E ( N ( t ) ) = ∑ n = 1 ∞ n P ( N ( t ) = n ) = ∑ n = 1 ∞ P ( N ( t ) ≥ n ) = ∑ n = 1 ∞ P ( S n < t ) = ∑ n = 1 ∞ F S n ( t ) ( c ) m_N(t) = E(N(t)) = \sum_{n=1}^\infty n P(N(t)=n) \\ = \sum_{n=1}^\infty P(N(t) \geq n) \\ = \sum_{n=1}^\infty P(S_n <t) \\ = \sum_{n=1}^\infty F_{S_n}(t) \quad\quad(c) mN(t)=E(N(t))=n=1nP(N(t)=n)=n=1P(N(t)n)=n=1P(Sn<t)=n=1FSn(t)(c)

3.3 更新方程

  我们还可以对得到的期望进行变形。我们对©左右求导。并且,单位时间内事件发生的次数,就是强度。

λ N ( t ) = d m N ( t ) d t = ∑ n = 1 ∞ f S n ( t ) \lambda_N(t)=\frac{d m_N(t)}{dt} = \sum_{n=1}^\infty f_{S_n}(t) λN(t)=dtdmN(t)=n=1fSn(t)

  两边做拉氏变换

∫ 0 ∞ λ N ( t ) e − s t d t = ∫ 0 ∞ ∑ n = 1 ∞ f S n ( t ) e − s t d t \int_{0}^{\infty} \lambda_N(t) e^{-st}dt =\int_{0}^{\infty} \sum_{n=1}^\infty f_{S_n}(t)e^{-st}dt 0λN(t)estdt=0n=1fSn(t)estdt

Let Λ ( s ) = ∫ 0 ∞ λ N ( t ) e − s t d t T ( s ) = ∫ 0 ∞ f T ( t ) e − s t d t \text{Let} \\ \Lambda(s) = \int_{0}^{\infty} \lambda_N(t) e^{-st}dt \\ T(s) = \int_{0}^{\infty} f_{T}(t)e^{-st}dt LetΛ(s)=0λN(t)estdtT(s)=0fT(t)estdt

  我们知道Sn的概率密度是T的概率密度是n重卷积,因此,我们可以知道

∫ 0 ∞ f S n ( t ) e − s t d t = ( T ( s ) ) n Λ ( s ) = ∑ n = 1 ∞ ( T ( s ) ) n = T ( s ) 1 − T ( s ) \int_{0}^{\infty} f_{S_n}(t)e^{-st}dt = (T(s))^n \\ \Lambda(s) = \sum_{n=1}^\infty (T(s))^n \\ = \frac{T(s)}{1-T(s)} 0fSn(t)estdt=(T(s))nΛ(s)=n=1(T(s))n=1T(s)T(s)

  可以得到

T ( s ) = Λ ( s ) − Λ ( s ) T ( s ) T(s) = \Lambda(s) - \Lambda(s)T(s) T(s)=Λ(s)Λ(s)T(s)

  对该式子再做反拉氏变换

f T ( t ) = λ N ( t ) − ∫ 0 t λ N ( τ − t ) f T ( τ ) d τ f_{T}(t) = \lambda_N(t) - \int_{0}^t \lambda_N(\tau-t)f_{T}(\tau)d \tau fT(t)=λN(t)0tλN(τt)fT(τ)dτ

  得到的这个方程叫做更新方程

Renewal Equation \text{Renewal Equation} Renewal Equation

3.4 N(t)的变化率

  这里给出三个与N(t)变化率极限有关的式子,不进行证明了

l i m t → ∞ N ( t ) t = 1 μ l i m t → ∞ m N ( t ) t = 1 μ l i m t → ∞ m N ( t + a ) − m N ( t ) = a μ lim_{t \rightarrow \infty} \frac{N(t)}{t} = \frac{1}{\mu} \\ lim_{t \rightarrow \infty} \frac{m_N(t)}{t} = \frac{1}{\mu} \\ lim_{t \rightarrow \infty} m_N(t+a) - m_N(t) = \frac{a}{\mu} limttN(t)=μ1limttmN(t)=μ1limtmN(t+a)mN(t)=μa

  • 5
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
要模拟含复合泊松点过程的随机微分方程,可以使用Matlab中的随机过程工具箱(Stochastic Processes Toolbox)和随机微分方程工具箱(Stochastic Differential Equation Toolbox)。 首先,需要定义含复合泊松点过程的随机微分方程。例如,可以考虑如下的随机微分方程: dX(t) = [a - b*X(t)] dt + σX dW(t) + Σ_{i=1}^{N(t)} Y_i dZ_i(t) 其中,X(t) 是随机过程,a、b、σX 是常数,W(t) 是标准布朗运动,N(t) 是泊松过程,满足 Poisson 过程条件: P{N(t) = k} = [λ(t)dt]^k / k! P{N(t) = k} = 0 (k不为整数) 其中,λ(t) 是随时间变化的强度函数。 Y_i 和 dZ_i(t) 是独立的随机变量和过程,表示跳跃时随机变量和时间的值,满足: E[Y_i] = μ Var[Y_i] = σ^2 E[dZ_i(t)] = 0 Cov[dZ_i(t),dZ_j(t)] = δ_{i,j} dt 其中,δ_{i,j} 是克罗内克 δ 符号。 然后,可以使用Matlab中的stochasticeulerequation函数进行欧拉-马尔科夫模拟。具体地,可以使用以下代码进行模拟: ```matlab % 定义含复合泊松点过程的随机微分方程参数 a = 1; b = 1; sigmaX = 0.1; lambda = @(t) 0.2 + 0.1*sin(t); mu = 0.5; sigmaY = 0.2; % 定义随机微分方程 f = @(t,X) a - b*X; g = @(t,X) sigmaX; h = @(t,X) poissrnd(lambda(t)); j = @(t,X,Y,Z) mu*Y; k = @(t,X,Y,Z) sigmaY*Z; % 定义初始值和时间网格 X0 = 0; tspan = [0 10]; dt = 0.01; t = tspan(1):dt:tspan(2); % 进行欧拉-马尔科夫模拟 X = stochasticeulerequation(f,g,h,t,X0,j,k); plot(t,X); ``` 在上述代码中,stochasticeulerequation函数用于进行欧拉-马尔科夫模拟,f、g、h、j、k 分别是随机微分方程的漂移项、扩散项、泊松点过程强度函数、跳跃项随机变量、跳跃项时间过程,X0 是初始值,tspan 是时间区间,dt 是时间步长,poissrnd函数用于生成泊松分布的随机数。最后,使用plot函数将模拟结果进行可视化。 需要注意的是,含复合泊松点过程的随机微分方程模拟可能会出现数值不稳定的情况,建议使用较小的时间步长进行模拟,并进行数值稳定性检验。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值