【统计学习系列】多元线性回归模型(三)——参数估计量的性质

本文深入探讨了多元线性回归模型中,最小二乘估计量(OLS)的性质,包括无偏性、一致性和有效性。通过引理证明了OLS参数估计量的数学特性,并详细阐述了β^OLS和σ^OLS的分布和无偏性。在正态性假设下,β^OLS服从特定的正态分布,而σ^OLS是对总体方差σ^2的无偏估计。文章还提出了关于模型评估和预测的新问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

【更新日志】
4/5/2020 对文章中公式与排版的部分错误进行修正


1. 前文回顾

在前面的文章中,我们介绍了多元线性回归模型的两种参数估计。对于模型:
y i = β 0 + ∑ j = 1 p x i j β j + ϵ i ,   i = 1 , . . . , N y_i= \beta_0 + \sum_{j=1}^{p} x_{ij} \beta_j + \epsilon_i , \ i=1,...,N yi=β0+j=1pxijβj+ϵi, i=1,...,N ϵ = ( ϵ i ) N × 1 ∼ N ( 0 , I n σ 2 ) \bm{\epsilon} = (\epsilon_i)_{N \times 1} \thicksim N(0,\bm{I_n}\sigma^2) ϵ=(ϵi)N×1N(0,Inσ2)
利用最小二乘估计法(OLS)得到的参数估计量为:
β ^ O L S = ( X T X ) − 1 X T y \bm{\hat\beta}_{OLS} = ( \bm{X}^T \bm{X} )^{-1} \bm{X}^T \bm{y} β^OLS=(XTX)1XTy σ ^ O L S = 1 N − p − 1 ( y − X β ^ O L S ) T ( y − X β ^ O L S ) \bm{\hat \sigma} _{OLS} = \sqrt{ \frac {1 } {N-p-1} ( \bm{y} - \bm{X} \bm{\hat{\beta}}_{OLS} )^T ( \bm{y} -\bm{X} \bm{\hat{\beta}}_{OLS} ) } σ^OLS=Np11(yXβ^OLS)T(yXβ^OLS)
而利用极大似然估计法(ML)得到的参数估计量为:
β ^ M L = ( X T X ) − 1 X T y \bm{\hat\beta}_{ML} = ( \bm{X}^T \bm{X} )^{-1} \bm{X}^T \bm{y} β^ML=(XTX)1XTy σ ^ M L = 1 N ( y − X β ^ M L ) T ( y − X β ^ M L ) \bm{\hat \sigma} _{ML} = \sqrt{ \frac { 1 } {N} ( \bm{y} - \bm{X} \bm{\hat{\beta}}_{ML} )^T ( \bm{y} - \bm{X} \bm{\hat{\beta}}_{ML} ) } σ^ML=N1(yXβ^ML)T(yXβ^ML) 其中:
β = [ β 0 β 1 ⋮ β p ] ( p + 1 ) × 1 ,       y = [ y 0 y 1 ⋮ y N ] N × 1 ,       X = [   1    x 11    …    x 1 p   1    x 21    …    x 2 p ⋮       ⋮       ⋱      ⋮   1    x N 1    …    x N p ] N × ( p + 1 ) \bm{\beta} = \begin{bmatrix} \beta_0 \\ \beta_1 \\ \vdots\\ \beta_p \end{bmatrix}_{(p+1) \times1}, \space \space \space \space \space \bm{y} = \begin{bmatrix} y_0 \\ y_1 \\ \vdots\\ y_N \end{bmatrix}_{N \times1}, \space \space \space \space \space \bm{X} = \begin{bmatrix} \space 1 \space\space x_{11} \space\space \dots \space\space x_{1p} \\ \space 1 \space\space x_{21} \space\space \dots \space\space x_{2p} \\ \vdots \space \space\space \space \space \vdots \space \space \space \space \space ⋱ \space \space \space \space \vdots\\ \space 1 \space\space x_{N1} \space\space \dots \space\space x_{Np} \end{bmatrix}_{N \times (p+1)} β=β0β1βp(p+1)×1,     y=y0y1yNN×1,     X= 1  x11    x1p 1  x21    x2p               1  xN1    xNpN×(p+1)
在这两种方法中,最小二乘估计法是我们最为常用的参数估计方法,原因有二:其一,以残差平方和作为评判超平面拟合好坏的指标比较直观,也易于理解;其二,最小二乘估计参数具有良好的估计量性质。此外,以残差平方和构建代价函数(Cost Function)的方法在机器学习领域十分常见,我们会在后面的Lasso回归和Ridge回归之中继续体会其中的奥妙。

在本章中,我们来继续探索利用最小二乘估计量在性质上究竟具有什么样的优势吧~


2. 衡量参数估计量好坏的指标

由于参数估计量是总体参数的估计值,因此估计量必然与总体参数之间存在一定的“误差”。如果,我们如何衡量一个参数的估计量是好是坏呢?我们可以从以下这几个性质入手:

这里想编一个射击小游戏来说明,但是有点费脑筋,等编好了再补充上来吧。

2.1 无偏性

参数估计量的 无偏性(unbiasedness) 是指,在多次试验中,用总体的某参数估计值的平均值与该总体参数的真实值“没有偏差”。用数学语言来描述则可以表达为:若一个总体参数 β 的估计量 β^ 是无偏估计量,则该估计量应满足:
E [ β ^ ] = β E[\bm{\hat\beta}] = \bm\beta E[β^

评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值