![3b5f92895c8fd87e8c3c295453090c07.png](https://img-blog.csdnimg.cn/img_convert/3b5f92895c8fd87e8c3c295453090c07.png)
在统计学中,线性回归(Linear Regression)是利用称为线性回归方程的最小平方函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析。这种函数是一个或多个称为回归系数的模型参数的线性组合。只有一个自变量的情况称为简单回归,大于一个自变量情况的叫做多元回归。
线性模型形式简单,易于建模,但却蕴含着机器学习中一些重要的基本思想,许多功能更为强大的非线性模型(nonlinear model)实际上就是在线性模型的基础上通过引入层级结构或高维映射而得。
一,一元线性回归
我画了一张图描述这个过程,给定数据集D = {(x1,y1),(x2,y2),......,(xm,ym)},其中xi=(xi1;xi2;...;xid),yi属于R。线性回归试图学得一个线性模型以尽可能准确地预测实值输出标记。(如图)
![d84291d6ee45a75da52e68be9a95a532.png](https://img-blog.csdnimg.cn/img_convert/d84291d6ee45a75da52e68be9a95a532.png)
线性回归试图产生这样的模型:
![f026e2d21b7099664b35c4c94c6b5673.png](https://img-blog.csdnimg.cn/img_convert/f026e2d21b7099664b35c4c94c6b5673.png)
如何确定w和b?w和b的目的是最小化f(x)与y的差别,这里可以使用均方误差,即:
![8a273b8d02a5a4636aeb4455dbd57ab3.png](https://img-blog.csdnimg.cn/img_convert/8a273b8d02a5a4636aeb4455dbd57ab3.png)
其中,线性回归就是指通过确定w和b使E(w,b)最小化的过程。这个过程称为线性回归模型的最小二乘参数估计。我们可将E(w,b)对w和b求导,得到
![a9c19b33247fc2998008743d69e01a74.png](https://img-blog.csdnimg.cn/img_convert/a9c19b33247fc2998008743d69e01a74.png)
令两式为0可得到w和b最优解的闭式解: