机器学习笔记——支持向量机(V)支持向量回归

回归问题

对于给定的样本 D={(x1,y1),(x2,y2),,(xm,ym)}yiR
我们希望习得一个回归模型,形如 f(x)=wTx+b 使得 f(x) y 尽可能地接近,w b 是待确定地模型参数。

传统的回归处理方式

对于样本(x,y),传统的回归模型通常直接基于模型输出 f(x) 与真实输出 y 之间的差别来计算损失,当且仅当f(x) y 完全相同时,损失才为零。

SVR处理方式

支持向量回归(Support Vector Regression),假设我们能容忍f(x) y 之间最多有ϵ的偏差。
当且仅当模型输出 f(x) 与真实输出 y 的差别绝对值大于ϵ时才计算损失。
于是这就相当于是以 f(x) 为中心,构建一个宽度为 2ϵ 的间隔带。若训练样本落入此间隔带内则被认为是预测正确的。
于是SVR问题可以形式化为:

minw,b12||w||2+Ci=1mϵ(f(xi)yi)(A)

其中 C 为正则化常数,ϵ ϵ- 不敏感损失( ϵ- insensitive loss)
ϵ={0,|z|ϵ,if |z|ϵ;otherwise

松弛变量

间隔带两侧的松弛程度可有所不同。于是松弛变量 εi ε^i 重写 A

minw,b12||w||2+Ci=1m(εi+ε^i)s.t. f(xi)yiϵ+εi,yif(xi)ϵ+ε^i,εi0,ε^i0,i=1,2,,m.

拉格朗日乘子法

L(w,b,α,α^,ε,ε^,μ,μ^)=12||w||2+Ci=1m(εi+ε^i)i=1mμiεii=1mμ^iε^i+i=1mαi(f(xi)yiϵεi)+i=1mα^i(yif(xi)ϵε^i)

L(w,b,α,α^,ε,ε^,μ,μ^) w,b,εiε^i
w0CC=i=1m(α^iαi)xi=i=1m(α^iαi)=αi+μi=α^i+μ^i

SVR对偶问题

maxα,α^ s.t.] i=1myi(α^iαi)ϵi(α^iαi)12i=1mj=1m(α^iαi)(α^jαj)xTixjj=1m(α^iαi)=0,0αi,α^iC.

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值