统计学习精要(The Elements of Statistical Learning)课堂笔记(二十一):SMO算法

1. SVM优化问题

1) 原问题

min12w2+Ciξi

s.t.yi(wi+b)1ξi,i

2) 拉格朗日形式的表述

minL(yi,wxi+b)+λw2

其中, L(yi,wxi+b)=l(y(wx+b))

3) 对偶问题

ming(λ,μ)=12ij(λiyi)(λjyj)(xixj)iλi

s.t.iλiyi=0

0λiC

μi0

4) SVM分类器

(i) W=iλiyixi

(ii) 选 0<λi<C

b=yiwxi=yijλjyj(xixj) ,然后 b~=average(bi)

(iii)SVM分类器 sign(wx+b)=sign(Ni=1λiyi(xxi)+b)

2. SMO算法

1) 基本思想:迭代下降、坐标下降

一次要选择两个变量(否则会破坏 λiyi=0

的约束),之后就可以解这个双变量优化问题。

2) 两个变量的优化

任取 λ1

, λ2 作为变量,其他 λ3,...

作为常量。

展开的矩阵大致如下:

λ1λ2λNy1x1y2x2yNxNλ1y1x1λ2y2x2yiyj(xixj)λiλjλNyNxN

目标函数= a11λ1λ1+a12λ1λ2+a21λ2λ1+a22λ2λ2+b1λ1+b2λ2+c

这样 a11=x12

, a22=x22 , a12=|x1x2| , a21=|x2x1|

约束 0λ1,λ2C

(对应对偶问题)

λ1y1+λ2y2+d=0

,这里d代表其余不改变的那些 Ni=3λiyi

化到单变量的话, λ2=(dλ1y1)/y2

所以,

  • 目标函数= e0λ21+e1λ1+e2
,最优条件 λ1¯=e12e0


  • 约束 Lλ1H ,其中 L H
  • 分别为lower/upper bound。故必有最优点在L、H之间或者L、H之一。
  • mine0λ21+e1λ1 s.t.Lλ1H ,可以解得 λ1=Lλ1¯Hλ1¯<LLλ1¯Hλ1¯>H

    这里虽然需要迭代很多次,但是迭代的每一步都比较快。

    至于如何选择 λ1,2

    ,第一个变量 λ1 可以选择 0<λ<C ,同时 bib¯ 最大。第二个变量选择 HL 最大的。
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值