【一元线性回归】
设有两个随机变量
X、Y
具有统计关系,即当
X
变化时,
y=E(Y|E=x)≜μ(x)
这是一个确定的函数,它大略反应了 X 与
在“均方意义”下回归方程 y=μ(x) 是最优的。
在
μ(x)=a+bx
的假定下所谓的一元线性回归问题。若再假设:
y∼N(a+bx,σ2)
或改写为:
y=a+bx+εε∼N(0,σ2)(1)
其中 a、b、σ2 为不依赖 x 的未知参数。称其为一元线性回归模型。
y^=a^+b^x
引入:
⎧⎩⎨⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪Sxx=∑i=1n(xi−x¯)2=∑i=1nx2i−1n(∑i=1nxi)2Syy=∑i=1n(yi−y¯)2=∑i=1ny2i−1n(∑i=1nyi)2Sxy=∑i=1n(xi−x¯)⋅(yi−y¯)=∑i=1nxiyi−1n(∑i=1nxi)(∑i=1nyi)
由最小二乘法或极大似然估计可得:
⎧⎩⎨⎪⎪⎪⎪⎪⎪⎪⎪b^=SxySxxa^=1n∑i=1nyi−(1n∑i=1nxi)b^
关于
σ2
的估计使用残差平方和:
Qe=∑i=1n(yi−yi^)2=∑i=1n(yi−a^−b^xi)2
经分解计得:
Qe=Syy−b^Sxy
σ^2=Qen−2 是 σ2 无偏估计。
【多元线性回归】
多元线性回归模型:
y=b0+b1x1+⋯+bmxm+εε∼N(0,σ2)
采用二乘法和求偏导数,整理后得到方程组,引入矩阵:
X=⎡⎣⎢⎢⎢⎢⎢11⋮1x11x21⋮xn1⋯⋯⋱⋯x1mx2m⋮xnm⎤⎦⎥⎥⎥⎥⎥Y=⎡⎣⎢⎢⎢⎢⎢y1y2⋮yn⎤⎦⎥⎥⎥⎥⎥B=⎡⎣⎢⎢⎢⎢b0b1⋮bm⎤⎦⎥⎥⎥⎥
则方程组可写成:
XTXB=XTY
于是可解得:
B=⎡⎣⎢⎢⎢⎢b0b1⋮bn⎤⎦⎥⎥⎥⎥的估计值:B^=⎡⎣⎢⎢⎢⎢⎢b^0b^1⋮b^n⎤⎦⎥⎥⎥⎥⎥=(XTX)−1XTY
称方程:
y^=b^0+b^1x1+⋯+b^mxm
为 m元线性回归方程
其残差平方和为:
Qe=∑i=1n(yi−y^i)=YT[En−X(XTX)−1XT]Y
可以得到: E(Qe)=(n−m−1)σ2 ,即:
σ^2=Qen−m−1
是 σ2 的无偏估计。