一.线性回归
线性回归是利用数理统计中回归分析,来确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法,运用十分广泛。其表达形式为y = w’x+e,e为误差服从均值为0的正态分布。
回归分析中,只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归分析。如果回归分析中包括两个或两个以上的自变量,且因变量和自变量之间是线性关系,则称为多元线性回归分析,这里我只是简单的实现一元线性回归。
线性回归模型经常用最小二乘逼近来拟合,但他们也可能用别的方法来拟合,比如用最小化“拟合缺陷”在一些其他规范里(比如最小绝对误差回归),或者在桥回归中最小化最小二乘损失函数的惩罚.相反,最小二乘逼近可以用来拟合那些非线性的模型.因此,尽管“最小二乘法”和“线性模型”是紧密相连的,但他们是不能划等号的。
二.最常用拟合方法——最小二乘法
在我们研究两个变量(x, y)之间的相互关系时,通常可以得到一系列成对的数据(x1, y1),(x2, y2)… (xm , ym);将这些数据描绘在x -y直角坐标系中 若发现这些点在一条直线附近,可以令这条直线方程如(式1-1)。
y= e + wx(式1-1)
其中:w\e是任意实数
为建立这直线方程就要确定e和w,应用《最小二乘法原理》,将实测值Yi与利用(式1-1)计算值(y= be+ wx)的离差(yi-y)的平方和〔∑(yi - y)²〕最小为“优化判据”。
下面的例子