回归——支持向量机回归(SVR)

支持向量机回归(SVR)是支持向量机在回归问题上的应用模型。支持向量机回归模型基于不同的损失函数产生了很多变种。本文仅介绍基于 ϵ \epsilon ϵ不敏感损失函数的SVR模型。

核心思想

找到一个分离超平面(超曲面),使得期望风险最小。

ϵ \epsilon ϵ-SVR

ϵ \epsilon ϵ-损失函数

ϵ \epsilon ϵ-损失函数,就是当误差小于 ϵ \epsilon ϵ时,该误差可忽略。反之,误差为 ξ − ∣ ϵ ∣ \xi-|\epsilon| ξϵ。如图所示:
loss
基于 ϵ \epsilon ϵ-损失函数的SVR称为 ϵ \epsilon ϵ-SVR。
优化问题如下:epsilon
回顾最小二乘法线性回归,目标是函数是样本点到直线的距离平方和加上正则化项。支持向量机本质与此相同,目标函数可表示为 o b j = C ( ∑ i = 1 l ( ξ + ξ ∗ ) + 1 2 C ω T ω ) obj = C(\sum_{i=1}^l(\xi+\xi^*) + \frac{1}{2C}\omega^T\omega) obj=C(i=1l(ξ+ξ)+2C1ωTω即样本点到超曲面的距离( ϵ \epsilon ϵ是常数项,无需考虑)加上L2正则化项。

ν \nu ν-SVR

ν \nu ν-支持向量机分类,另设一个参数 ν \nu ν来调节支持向量的个数。
优化问题如下:这里写图片描述
C , ν C,\nu C,ν是用户自由设置的,故直接将 C / l C/l C/l称为 C C C, C ν C\nu Cν称为 ν \nu ν,则最优化函数等同于: min ⁡ w , b , ξ ∗ , ξ , ϵ 1 2 w T w + ν ϵ + C ∑ i = 1 l ( ξ i + ξ i ∗ ) \min_{w, b, \xi^*,\xi, \epsilon}\qquad \frac{1}{2}w^Tw+\nu\epsilon+C\sum_{i=1}^{l}(\xi_i+\xi_i^*) w,b,ξ,ξ,ϵmin21wTw+νϵ+Ci=1l(ξi+ξi)

支持向量

直观地理解,支持向量就是对最终的w,b的计算起到作用的样本( α &gt; 0 \alpha\gt0 α>0)。那么根据 ϵ \epsilon ϵ不敏感函数图像,不敏感区域形同一个“管道"。管道之内的样本对应 α = 0 \alpha=0 α=0,为非支持向量;位于“管壁”上的为边界支持向量, 0 &lt; α &lt; C 0&lt;\alpha&lt;C 0<α<C,为边界支持向量;位于“管道”之外的为非边界支持向量, α ⩾ C \alpha\geqslant C αC,为非边界支持向量(异常点检测时,常从非边界支持向量中挑选异常点);

参考资料

LIBSVM指导文档(图片来源)

我的GitHub
注:如有不当之处,请指正。

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值