支持向量回归和传统的回归模型的区别:
就拿最简单的线性回归来讲,通过模型输出的f(x)与真实输出的y值之间的差别来计算损失。而SVR假设模型输出f(x)与真实的y值之间可以容忍有eps大小的偏差,也就意味只要样本的预测值落在f(x)两侧在y轴方向上绝对值只差小于eps的间隔带上就是预测正确的。
我们去用一个f(x)=wtx+b来拟合真实数据,就会遇到欠拟合和过拟合两个问题。
对于线性回归或逻辑回归的损失函数构成的模型,可能会有些权重很大,有些权重很小,导致过拟合(就是过分拟合了训练数据),使得模型的复杂度提高,泛化能力较差(对未知数据的预测能力)。而过拟合的出现则是因为样本太多的特征被包含进来,很多无关的特征,可能只是某个样本具有的也被认为是模型应该拟合的,最终会导致模型的泛化能力下降。
而解决过拟合可以通过下面两种方式来进行
1)人工选择要保留的特征,也就是减少特征的数量
2)正则化,保留所有的特征,减少w的值