机器学习|点估计-矩阵计法(以k阶原点矩为例)| 15mins入门|概统学习笔记(二十五)

寻求估计量的方法
  • 类别:
    1. 矩阵计法
    2. 极大似然法
    3. 最小二乘法
    4. 贝叶斯方法

(一) 矩阵计法:

思想:基于一种简单的”替换“思想建立起来的一种估计方法,用相应的样本矩估计总体矩。

理论依据:大数定律或格列汶科定理。

  • 总体k阶原点矩为 μ k = E ( X k ) \mu_k=E(X^k) μk=E(Xk)

    样本k阶原点矩为 A k = 1 n ∑ i = 1 n X i k A_k=\frac{1}{n}\sum_{i=1}^nX_i^k Ak=n1i=1nXik

    总体k阶中心矩为 v k = E [ X − E ( X ) ] k v_k=E[X-E(X)]^k vk=E[XE(X)]k

    样本k阶中心矩为 B k = 1 n ∑ i = 1 n ( X i − X ‾ ) k B_k=\frac{1}{n}\sum_{i=1}^n(X_i-\overline{X})^k Bk=n1i=1n(XiX)k

  • 定义:设总体的分布函数中含有k个未知参数 θ 1 , . . . , θ k \theta_1,...,\theta_k θ1,...,θk,那么它的前k阶矩 μ 1 , . . . , μ k \mu_1,...,\mu_k μ1,...,μk一般都是这k个参数的函数,记为:
    μ i = g i ( θ 1 , . . . , θ k ) i = 1 , 2 , . . . , k \mu_i=g_i(\theta_1,...,\theta_k) \quad i=1,2,...,k μi=gi(θ1,...,θk)i=1,2,...,k
    从这k个方程中解出
    θ j = h j ( μ 1 , . . . , μ k ) j = 1 , 2 , . . . , k \theta_j=h_j(\mu_1,...,\mu_k) \quad j=1,2,...,k θj=hj(μ1,...,μk)j=1,2,...,k
    那么用诸 μ i \mu_i μi的估计量 A i A_i Ai(样本矩)分别替代上式中的诸 μ i \mu_i μi,即可得诸 θ j \theta_j θj的矩估计量:
    θ ^ j = h j ( A 1 , . . . , A k ) j = 1 , 2 , . . . , k \hat \theta_j=h_j(A_1,...,A_k) \quad j=1,2,...,k θ^j=hj(A1,...,Ak)j=1,2,...,k

  • 优点:简单易行,不要需要事先知道总体是什么分布

  • 缺点:当总体类型已知时,没有充分利用分布提供的信息。一般场合下,矩估计量不具有唯一性。其主要原因在于建立矩法方程时,选取那些总体矩用相应样本矩代替时带有一定的随意性

e.g 例1

设总体X的均值 μ \mu μ及方差 σ 2 \sigma^2 σ2存在,且 σ > 0 \sigma>0 σ>0。但 μ 、 σ 2 \mu、\sigma^2 μσ2均为未知,又设 X 1 , X 2 , . . . , X n X_1,X_2,...,X_n X1,X2,...,Xn是来自X的样本,试求 μ 、 σ 2 \mu、\sigma^2 μσ2的矩估计量。

(这里都用k阶原点矩求)

第一步:先求总体的前k阶矩(本题共有两个未知参数,故k=2)
{ μ 1 = E ( X ) = μ μ 2 = E ( X 2 ) = D ( X ) + [ E ( X ) ] 2 = σ 2 + μ 2 \begin{cases}\mu_1=E(X)=\mu \\\mu_2=E(X^2)=D(X)+[E(X)]^2=\sigma^2+\mu^2\end{cases} {μ1=E(X)=μμ2=E(X2)=D(X)+[E(X)]2=σ2+μ2
第二步:根据第一步求出的总体的前k阶矩构成的方程组,求解未知参数
{ μ = μ 1 σ 2 = μ 2 − μ 1 2 \begin{cases}\mu=\mu_1 \\\sigma^2=\mu_2-\mu_1^2\end{cases} {μ=μ1σ2=μ2μ12
第三步:用样本 ( X 1 , X 2 , . . . , X n ) (X_1,X_2,...,X_n) (X1,X2,...,Xn)的前k阶矩 ( A i ) (A_i) (Ai)代替总体的前k阶矩 ( μ i ) (\mu_i) (μi)。同时,用矩估计量 ( μ ^ , σ 2 ^ ) (\hat \mu, \hat {\sigma^2}) (μ^,σ2^)代替总体的未知参数 ( μ , σ 2 ) (\mu,\sigma^2) (μ,σ2)

即令 A i = μ i ( A 1 = μ 1 、 A 2 = μ 2 ) , μ ^ = μ 、   σ 2 ^ = σ A_i=\mu_i(A_1=\mu_1、A_2=\mu_2), \quad \hat \mu=\mu、 \space \hat {\sigma^2}=\sigma Ai=μi(A1=μ1A2=μ2),μ^=μ σ2^=σ
{ μ ^ = A 1 = X ‾ σ 2 ^ = A 2 − A 1 2 = 1 n ∑ i = 1 n X i 2 − X ‾ 2 = 1 n ∑ i = 1 n ( X i 2 − X ‾ 2 ) \begin{cases}\hat \mu=A_1=\overline X \\\hat{\sigma^2} = A_2-A_1^2=\frac{1}{n}\sum_{i=1}^nX_i^2-\overline X^2=\frac{1}{n}\sum_{i=1}^n(X_i^2-\overline X^2)\end{cases} {μ^=A1=Xσ2^=A2A12=n1i=1nXi2X2=n1i=1n(Xi2X2)
注:上式即为总体的均值、方差的矩估计量的表达式,它不因总体分布的不同而不同

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值