机器学习|数学期望(随机变量、随机变量函数)+k阶原点矩、中心矩|15mins入门|概统学习笔记(八)

数学期望

1.随机变量的数学期望
  • 背景:如果知道了随机变量X的概率分布,那么X的全部概率特征也就都知道了,但是在实际问题中,概率分布一般是比较难确定的,因此人们并不需要知道随机变量的一切概率性质,只要知道它的某些数字特征(期望和方差)就够了。

  • 离散型随机变量的数学期望

    设X是离散型随机变量,它的概率函数是 P ( X = X k ) = p k ,   k = 1 , 2 , . . . P(X=X_k)=p_k,\space k=1,2,... P(X=Xk)=pk, k=1,2,...

    如果 ∑ k = 1 ∞ ∣ x k ∣ p k \sum_{k=1}^\infty|x_k|p_k k=1xkpk有限,定义X的数学期望为:
    E ( X ) = ∑ k = 1 ∞ x k p k E(X)=\sum^\infty_{k=1}x_kp_k E(X)=k=1xkpk
    也就是说,离散型随机变量的数学期望是一个绝对收敛的级数的和

  • 连续型随机变量的数学期望

    设X是连续型随机变量,其密度函数为 f ( x ) f(x) f(x),在数轴上取很密的分点 x 0 < x 1 < x 2 < . . . , x_0<x_1<x_2<..., x0<x1<x2<...,则X落在小区间 [ x i , x i + 1 [x_i,x_{i+1} [xi,xi+1的概率是
    ∫ x i x i + 1 f ( x ) d x ≈ f ( x i ) ( x i + 1 − x i ) = f ( x i ) Δ x i \int_{x_i}^{x_{i+1}}f(x)dx \approx f(x_i)(x_{i+1}-x_i)=f(x_i)\Delta x_i xixi+1f(x)dxf(xi)(xi+1xi)=f(xi)Δxi

​ 如果 ∫ − ∞ ∞ ∣ x ∣ f ( x ) d x \int_{-\infty}^\infty|x|f(x)dx xf(x)dx有限,定义X的数学期望为:
E ( X ) = ∫ − ∞ ∞ x f ( x ) d x E(X)=\int_{-\infty}^\infty xf(x)dx E(X)=xf(x)dx
​ 也就是说,连续型随机变量的数学期望是一个绝对收敛的积分

  • 由随机变量数学期望的定义,不难计算得:

    • 若X服从参数为 λ \lambda λ的泊松分布,则
      E ( X ) = λ E(X)=\lambda E(X)=λ

    • X X X~ U ( a , b ) U(a,b) U(a,b),即X服从(a,b)上的均匀分布,则
      E ( X ) = a + b 2 E(X) = \frac{a+b}{2} E(X)=2a+b

    • 若X服从 N ( μ , σ 2 ) N(\mu,\sigma^2) N(μ,σ2),则
      E ( X ) = μ E(X)=\mu E(X)=μ

2.随机变量函数的数学期望
  • 背景:设已知随机变量X的分布,需要计算的不是X的期望,而是X的某个函数的期望,比如说是g(X)的期望,该如何计算呢?

    因为 g ( X ) g(X) g(X)也是随机变量,故应有概率分布,它的分布可以由已知的X的分布求出来,一旦知道了 g ( X ) g(X) g(X)的分布,就可以按照期望的定义把 E [ g ( X ) ] E[g(X)] E[g(X)]计算出来,但是这种方法一般比较复杂。

  • 引入 E ( X ) E(X) E(X)的推理,可得如下的基本公式:

    设X是一个随机变量, Y = g ( X ) Y=g(X) Y=g(X),则
    E ( Y ) = E [ g ( X ) ] = { ∑ k = 1 ∞ g ( x k ) p k , X 为 离 散 型 ∫ − ∞ ∞ g ( x ) f ( x ) d x , X 为 连 续 型 E(Y)=E[g(X)]= \begin{cases} \sum_{k=1}^\infty g(x_k)p_k,\quad X为离散型 \\ \int_{-\infty}^\infty g(x)f(x)dx,\quad X为连续型 \end{cases} E(Y)=E[g(X)]={k=1g(xk)pk,Xg(x)f(x)dx,X
    当X为离散型时, P ( X = x k ) = p k P(X=x_k)=p_k P(X=xk)=pk

    当X为连续型时,X的密度函数为 f ( x ) f(x) f(x)

    因此,求 E [ g ( X ) ] E[g(X)] E[g(X)]时,就不必知道 g ( X ) g(X) g(X)的分布,而只需知道X的分布就可以计算 g ( X ) g(X) g(X)的数学期望

  • g ( X ) g(X) g(X)特殊化,可得到各种数字特征:

    • k阶原点矩 E ( X k ) E(X^k) E(Xk)
    • k阶中心距 E ( [ X − E ( X ) ] k ) E([X-E(X)]^k) E([XE(X)]k)
    • k阶绝对原点矩 E ( ∣ X ∣ k ) E(|X|^k) E(Xk)
    • k阶绝对中心矩 E ( ∣ X − E ( X ) ∣ k ) E(|X-E(X)|^k) E(XE(X)k)

    其中k是正整数。

3.数学期望的性质
  1. 设C是常数,则 E ( C ) = C E(C)=C E(C)=C

  2. 若k是常数,则 E ( k X ) = k E ( X ) E(kX)=kE(X) E(kX)=kE(X)

  3. E ( X 1 + X 2 ) = E ( X 1 ) + E ( X 2 ) E(X_1+X_2)=E(X_1)+E(X_2) E(X1+X2)=E(X1)+E(X2)

    推广: E [ ∑ i = 1 n X i ] = ∑ i = 1 n E ( X i ) E[\sum_{i=1}^nX_i]=\sum_{i=1}^nE(X_i) E[i=1nXi]=i=1nE(Xi)

  4. 设X、Y独立,则 E ( X Y ) = E ( X ) E ( Y ) E(XY)=E(X)E(Y) E(XY)=E(X)E(Y),反过来不一定成立

    推广: E [ ∏ i = 1 n X i ] = ∏ i = 1 n E ( X i ) ( 诸 X i 独 立 时 ) E[\prod_{i=1}^nX_i]=\prod_{i=1}^nE(X_i)(诸X_i独立时) E[i=1nXi]=i=1nE(Xi)(Xi)

  • 1
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值