统计学习方法笔记(十一)支持向量机(二)

线性可分支持向量机与软间隔最大化

一、线性支持向量机
当数据是线性不可分的时候,不等式约束并不总是成立的,所以需要修改硬间隔最大化,使其成为软间隔最大化。
对于训练数据来说,所谓的线性不可分,指数据中有一些特异点,其无法满足函数间隔大于等于1的约束条件。为了解决这个问题,对每个样本点引入了一个松弛变量,使其函数间隔加上这个松弛变量满足相应的条件,这样,约束条件变为:
yi(wxi+b)1ξi y i ( w ⋅ x i + b ) ≥ 1 − ξ i
同时,因为引入了一个松弛变量,所以要支付一个代价,目标函数变为:
12||w||2+Ci=1Nξi 1 2 | | w | | 2 + C ∑ i = 1 N ξ i
所以,可以得到如下的凸二次规划问题:
minw,b,ξ12||w||2+Ci=1Nξi min w , b , ξ 1 2 | | w | | 2 + C ∑ i = 1 N ξ i
s.t.yi(wxi+b)1ξi,i=1,2,,N ξi0,i=1,2,,N s . t . y i ( w ⋅ x i + b ) ≥ 1 − ξ i , i = 1 , 2 , ⋯ , N   ξ i ≥ 0 , i = 1 , 2 , ⋯ , N
最终可以证明,w的解是唯一的,而b的解不唯一,且存在一个区间上。
线性支持向量机的模型:
wx+b=0 w ∗ ⋅ x + b ∗ = 0
f(x)=sign(wx+b) f ( x ) = s i g n ( w ∗ ⋅ x + b ∗ )
二、学习的对偶算法
1、原始问题的对偶问题变为:
minα12i=1Nj=1Nαiαjyiyj(xixj)i=1Nαi min α 1 2 ∑ i = 1 N ∑ j = 1 N α i α j y i y j ( x i ⋅ x j ) − ∑ i = 1 N α i
s.t.i=1Nαiyi=0 s . t . ∑ i = 1 N α i y i = 0
0αiC,i=1,2,,N 0 ≤ α i ≤ C , i = 1 , 2 , ⋯ , N
最终可求得,其解为:
w=i=1Nαiyixi w ∗ = ∑ i = 1 N α i ∗ y i x i
b=yji=1Nyiαi(xixj) b ∗ = y j − ∑ i = 1 N y i α i ∗ ( x i ⋅ x j )
2、支持向量
这里写图片描述
如图所示,支持向量是对应于 αi>0 α i ∗ > 0 的实例点。其或者在间隔边界上,或者在间隔边界与分离超平面之间,或者在分离超平面误分的一侧。
三、合页损失函数
合页损失函数是对线性支持向量机学习的另一种解释,其实质是实现以下目标函数的最小化:
i=1N[1yi(wxi+b)]++λ||w||2 ∑ i = 1 N [ 1 − y i ( w ⋅ x i + b ) ] + + λ | | w | | 2
显然,正常来说, yi(wxi+b) y i ( w ⋅ x i + b ) 应该大于1,代表没有被误分类,损失为0,一旦被误分类,其损失为上式中的第一项。
合页损失函数与原始最优化问题等价。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值