多元回归
多元线性回归模型的基本假定
为了方便地进行模型的参数估计,我们对以下回归方程式有如下假定:
Y ^ = X β + ε \hat{Y}=X\beta+\varepsilon Y^=Xβ+ε
- 解释变量 x 1 , x 2 , ⋯   , x p x_1,x_2,\cdots,x_p x1,x2,⋯,xp 是确定性变量,不是随机变量,且要求 r a n k ( X ) = p + 1 < n rank(X)=p+1<n rank(X)=p+1<n。这里的 r a n k ( X ) = p + 1 < n rank(X)=p+1<n rank(X)=p+1<n,表明设计矩阵 X X X中的自变量列之间不相关,样本量的个数应该大于解释变量的个数, X X X是以满秩矩阵。
- 随机误差项具有零均值等方差,即
{ E ( ε i ) = 0 , i = 1 , 2 , ⋯   , n c o v ( ε i , ε j ) = { σ 2 , i = j 0 , i ≠ j , i , j = 1 , 2 , ⋯   , n \begin{cases} E(\varepsilon_i)=0,\quad i =1,2,\cdots,n\\ cov(\varepsilon_i,\varepsilon_j)= \begin{cases} \sigma^2, &{i = j} \\ 0, & {i\neq j} \end{cases}\quad,i,j=1,2,\cdots,n \end{cases} ⎩⎪⎨⎪⎧E(εi)=0,i=1,2,⋯,ncov(εi,εj)={
σ2,0,i=ji̸=j,i,j=1,2,⋯,n
这个假定常称为Gauss-Markov条件。 E ( ε i ) = 0 E(\varepsilon_i)=0 E(εi)=0,即假设观察值没有系统误差,随机误差项