![6ad0d05e49a9c4c4c0d19ff1ea487c23.png](https://img-blog.csdnimg.cn/img_convert/6ad0d05e49a9c4c4c0d19ff1ea487c23.png)
线性回归
1 线性回归的定义
监督学习中,如果预测的变量是离散的,我们称其为分类(如决策树,支持向量机等),如果预测的变量是连续的,我们称其为回归。回归分析中,如果只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归分析。如果回归分析中包括两个或两个以上的自变量,且因变量和自变量之间是线性关系,则称为多元线性回归分析。对于二维空间线性是一条直线;对于三维空间线性是一个平面,对于多维空间线性是一个超平面。
对于一元线性回归模型,假设从总体中获取了
选择最佳拟合曲线的标准可以确定为:使总的拟合误差(即总残差)达到最小。有以下三个标准可以选择:
- 用“残差和最小”确定直线位置是一个途径。但很快发现计算“残差和”存在相互抵消的问题。
- 用“残差绝对值和最小”确定直线位置也是一个途径。但绝对值的计算比较麻烦。
- 最小二乘法的原则是以“残差平方和最小”确定直线位置。用最小二乘法除了计算比较方便外,得到的估计量还具有优良特性。这种方法对异常值非常敏感。
2 一元线性回归分析的普通最小二乘法
普通最小二乘法(Ordinary Least Squares,OLS):所选择的回归模型应该使所有观测值得残差平方和达到最小,即采用残差平方和损失函数
首先介绍一元线性回归,定义数据为: