SVM 支持向量机(1)--- 完全线性可分

SVM 支持向量机

线性可分SVM : hard margin

距离

  • 函数间隔: wx+b:1||w||(wx+b)

推导 模型 y=sign(wx+b)

  • 超平面: wx+b=0
  • 函数间隔: yi(wxi+b)margin ,
    • 令margin=1,并做归一化.得margin的几何距离 1||w|| ,并使这个几何距离最大(注:||w||为L2范式)
    • 可表示为以下 凸二次规划问题:
      max1||w||s.t.yi(wxi+b)1
    • 等价于:
      min12||w||2s.t.yi(wxi+b)1||w||2=i=1Kw2i,K

优化求解

可跳过这段, 直接看 更加一般的线性SVM模型 链接

拉格朗日乘子法


  • 广义拉格朗日函数:
    L(w,b,α)=12||w||2i=1Nαiyi(wxi+b)+i=1Nαi

原始问题 and 对偶问题:

minw,b maxα0 L(w,b,α)

maxα0 minw,b L(w,b,α)

目标函数,不等式条件函数为v凸函数,所以对偶问题的解α* ,与原始问题的解w* , b*,满足KKT条件)

KKT条件:

wL(w,b,α)=wi=1Nαiyixi=0bL(w,b,α)=i=1Nαiyi=0αL(w,b,α)=0(3),α0,=0αi[yi(wxi+b)1]=0yi(wxi+b)10αi0(1)(2)(3) (4)(5)

由(1)式得: w=i=1Nαiyixi 至少有一个 αj>0

( αi 全为0时, w=0 不是原问题的解,所以至少有一个 αj>0 )

对于 αj>0 的那个j数据点 (xj,yj) 待入(3)式有: yj(wxj+b)1=0

(yj)2=1yj,:

b=yjwxj=yj(i=1Nαiyixi)xj=yji=1Nαiyi(xixj)

转化为求解α问题,通过对偶问题求解 α :

先求极小 minw,bL(w,b,α) 部分:

KKT式(1),(2) 代回 L(w,b,α) 得:

minw,bL(w,b,α)=12i=1Nj=1Nαiαjyiyj(xixj)+i=1Nαi

再求极大 max 部分:
maxα12i=1Nj=1Nαiαjyiyj(xixj)+i=1Nαis.t.αi0,i=1,1,2,N

转化为求极小
minα12i=1Nj=1Nαiαjyiyj(xixj)i=1Nαi

s.t.i=1Nαiyi=0αi0,i=1,2,3,N

线性SVM :soft margin

链接

线性不可分SVM : kernel trick + soft margin

链接


........

reference:
                            <<统计学习方法>>    李航
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值