目录导引
这一个系列的笔记和整理希望可以帮助到正在学习回归分析的同学。我会慢慢更新各个章节的内容,从一元线性回归开始。
Chap 1 一元线性回归
1.1 基本模型与假设
y = β 0 + β 1 x + ϵ y=\beta_0+\beta_1x+\epsilon y=β0+β1x+ϵ
一元线性回归模型的任务是通过观测变量 x x x预测出响应变量 y y y的期望。这里要有一个概念上的理解,我们不可能通过自变量预测出准确的某一个个体对应的因变量,因为模型中随机误差项的存在,但在模型的G-M假设
中 ∑ i = 1 N ϵ i = 0 \sum_{i=1}^N\epsilon_i=0 ∑i=1Nϵi=0,意味着 E ( y ) = β 0 + β 1 x E(y)=\beta_0+\beta_1x E(y)=β0+β1x成立。
1.2 参数 β 0 , β 1 \beta_0,\beta_1 β0,β1的估计与性质
β ^ 0 = y ˉ − β ^ 1 x ˉ β ^ 1 = ∑ i = 1 n ( x i − x ˉ ) ( y i − y ˉ ) ∑ i = 1 n ( x i − x ˉ ) 2 = L x y L x x \begin{aligned} \hat \beta_0 &= \bar y - \hat \beta_1 \bar x \\ \hat \beta_1 &= \frac{\sum_{i=1}^{n}(x_i-\bar x)(y_i-\bar y)}{\sum_{i=1}^{n}(x_i-\bar x)^2} \\ & = \frac{Lxy}{Lxx} \end{aligned} β^0β^1