回归问题
在回归问题中,我们具体要预测的是一个具体的数值,而不是分类。
对于回归问题,比如,我们可以根据房屋的大小预测房屋的价格,在这里只有一个样本特征,就是房屋的大小,为了实现这个,我们需要在两维空间中表示。如横轴代表房屋大小,纵轴就是房屋的价格,也就是我们要预测的数值。但是在分类问题里,假如样本有两维特征,如鸢尾花花瓣的大小与叶子的宽度,我们只需要二维空间中就能将它们分类,只需把用不同颜色的点来标记不同的类别的样本。而回归问题中,如果我们有二维特征,那么就需要在三维的空间里进行回归。
Simple Linear Regression就是指只有一个特征,能在二维平面上显示的回归问题。
线性回归算法的基本思路
定义一个损失函数,时这个损失函数的值尽可能小。
损失函数代表损失的那一部分,而效用函数代表真正有用的那一部分。
下面是一类机器学习算法的基本思路,近乎所有参数学习算法都是这种套路(e.g. 线性回归、多项式回归、逻辑回归、SVM、神经网络etc.)
最小化上面的损失函数就是典型的最小二乘法问题:最小化误差的平方