严格的线性回归
之前我们讲过线性回归:在向量空间里用线性函数去拟合样本。
该模型以所有样本实际位置到该线性函数的综合距离为损失,通过最小化损失来求取线性函数的参数。参见下图:
对于线性回归而言,一个样本只要不是正好落在最终作为模型的线性函数上,就要被计算损失。
如此严格,真的有利于得出可扩展性良好的模型吗?
宽容的支持向量回归(SVR)
今天我们来介绍一种“宽容的”回归模型:支持向量回归(Support Vector Regression,SVR)。
模型函数
支持向量回归模型的模型函数也是一个线性函数: y = wx + b。
看起来和线性回归的模型函数一样哈!
但 SVR 和线性回归,却是两个不同的回归模型。
不同在哪儿呢?不同在学习过程。
说得更详细点,就是:计算损失的