目录
主题:支持向量回归
和其他简单回归模型
之间的主要区别是什么
支持向量回归找到一个线性函数,表示误差范围 (epsilon) 内的数据。也就是说,大多数点都可以在该边距内找到,如下图所示
这意味着 SVR 比大多数其他回归方法对异常值更稳健
,因为它不太关心边际之外的数据
关于machine-learning - SVR与其他简单回归模型的区别,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/54604924/ .
另一个观点:
事实并非如此。 在 SVR 中,epsilon 内的点不会产生错误,epsilon 之外的点会产生错误。 这个想法是为了最小化损失,因此该方法将尝试找到将尽可能多的点保留在 epsilon 内的线。
但异常值仍然会产生影响。
参考链接
[1] machine-learning - SVR与其他简单回归模型的区别 时间不详;
[2] 参考链接;