个人总结:从 SVM分类 到 线性支持回归SVR

本文回顾SVM分类模型,探讨线性支持向量回归(SVR)的损失函数和目标,指出SVR仅受支持向量影响。对比逻辑回归与SVM,分析两者在分类与回归任务中的联系与区别,包括损失函数、模型构建和应用场景。
摘要由CSDN通过智能技术生成

回顾前面的SVM分类模型中,我们的目标函数是让最小,同时让各个训练集中的点尽可能远离自己类别一边的支持向量,即;若加入一个松弛变量,则目标函数变为,对应约束条件变为

线性支持回归也是尽量将训练集拟合到一个线性模型。但是损失不是使用常用的均方差作为损失函数,而是定义一个常量\epsilon>0,对于某一个点\left ( x_{i}, \right y_{i} ),如果,则认定为没有损失。若,则对应的损失为

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值