本系列文章基于R语言中lm函数的输出,介绍线性回归模型的例子和原理。
本文是系列文章的第二篇,将介绍线性回归模型中的一些常见假设以及基于这些假设对回归系数的检验。
本文包括以下4个小节:
1. 常见假设
2. 示例:mtcars数据集
3. 模型推导
4. 附录代码
以下内容为免费试读部分,完整文章可到公号“生信了”付费阅读
1. 常见假设
在前文《线性回归模型(OLS)1》中我们已经介绍过线性回归模型的定义以及基于普通最小二乘(OLS)求解回归系数的方法。在此我们作简要回顾:
假设我们观察到一些数据 { x i , y i } i = 1 n \{\mathbf{x}_i, y_i\}_{i=1}^n { xi,yi}i=1n,其中 x i = ( x i 1 , x i 2 , … , x i p ) T \mathbf{x}_i=(x_{i1},x_{i2},\ldots,x_{ip})^\mathsf{T} xi=(xi1,xi2,…,xip)T,线性回归模型研究因变量 y i y_i yi 和自变量 x i \mathbf{x}_i xi 之间的关系:
y i = β 0 + β 1 x i 1 + β 2 x i 2 + ⋯ + β p x i p + ϵ i = ∑ j = 0 p β j x i j + ϵ i , ( x i 0 = 1 ) \begin{align*} y_i &= \beta_0 + \beta_1 x_{i1} + \beta_2 x_{i2} + \cdots + \beta_p x_{ip} + \epsilon_i \\ &= \sum_{j=0}^p \beta_j x_{ij} + \epsilon_i, \qquad (x_{i0} = 1) \end{align*} yi=β0+β1xi1+β2xi2+⋯+βpxip+ϵi=j=0∑pβ