线性回归
- 解决回归问题
- 思想简单
- 许多强大的非线性模型的基础
- 结果具有很好的可解释性
- 蕴含机器学习中的很多重要思想
在上图坐标上,每一个点都表示一个数据, 假设是房产价格的数据。线性回归算法说我们认为房屋的面积和价格成一定的线性关系,也就是说随着房屋面积的增大,价格也会增大,并且增大是线性的。
那么在这种假设下,找到一条直线,希望最大程度的“拟合”样本特征和样本输出标记之间的关系。对于上图来说,样本特征是房屋面积,房屋价格为输出标记。
区别于分类问题,分类问题坐标轴横纵轴是两个样本特征,而输出标记是用标记点的颜色进行表示的,而回归问题只有横轴表示一个样本特征,纵轴房屋价格就是输出标记。分类问题需要预测是一个具体的数值,这具体数值是在一个连续的空间里的,而不是简单的用不同的颜色代表不同的类别。
如果需要看有两个样本特征的回归问题,那么就需要在三维空间进行观察。样本特征只有一个,称为简单线性回归;样本特征有多个成为多元线性回归。
假设我们找到最佳拟合的直线方程:y=ax+b
则对于每一个样本点 x i x~i x i
根据我们的直线方程,预测值为:
y ^ i = a x i + b \hat{y}~i = ax~i+ b y^ i=ax i+b
真值为:$ y~i$
我们希望 y ^ i \hat y~i y^ i和 y i y~i y i的差距尽量小,也就是 y i − y ^ i y~i - \hat{y}~i y i−y^ i,但是可能存在差值为正为负的情况,无法直接使用减法。 ∣ y i − y ^ i ∣ |y~i - \hat{y}~i| ∣y i−y^ i∣ 使用绝对值的形式虽然可以求得预测值与真值的差距,但是 y = a ∣ x ∣ + b y = a|x| + b y=a∣x∣+b并非处处可导,对于后续求取参数a、b的值时不方便。
采用 ( y i − y ^ i ) 2 (y~i - \hat{y}~i)^2 (y i−y^ i)2 的形式来衡量预测值与真值之间的差距,
所以我们考虑所有的样本: ∑ i = 1 m ( y i − y ^ i ) 2 \displaystyle \sum^{m}_{i=1}(y~i - \hat{y}~i)^2 i=1∑m(y i−y^ i)2
所以我们的目标是使 ∑ i = 1 m ( y i − y ^ i ) 2 \displaystyle \sum^{m}_{i=1}(y~i - \hat{y}~i)^2 i=1∑m(y i−