[基本功]SVM如何优化拉格朗日乘子——SMO算法

问题:在SVM原问题转化为对偶问题后,如何由下式求得最优解 α ∗ \alpha^* α
m i n α 1 2 ∑ i = 1 N ∑ j = 1 N α i α j y i y j ( x i ⋅ x j ) − ∑ i = 1 N α i s . t .    α i > = 0    ,    ∑ i = 1 N α i y i = 0 min_{\alpha}\frac{1}{2}\sum_{i=1}^N\sum_{j=1}^N\alpha_i\alpha_jy_iy_j(x_i·x_j)-\sum_{i=1}^N\alpha_i \\s.t.\;\alpha_i>=0\;,\;\\\sum_{i=1}^N\alpha_iy_i=0 minα21i=1Nj=1Nαiαjyiyj(xixj)i=1Nαis.t.αi>=0,i=1Nαiyi=0
求解:SMO(Sequential Minimal Optimization)算法,即序列最小优化算法

SMO核心思想:每次只优化一个参数,其它参数先固定住,仅求当前这个优化参数的极值。

具体步骤:

(1)选择两个需要更新的参数 α i \alpha_i αi α j \alpha_j αj,固定其他参数。于是约束为:
α i > = 0      α j > = 0 α i y i + α j y j = c \alpha_i>=0\;\;\alpha_j>=0 \\\alpha_iy_i+\alpha_jy_j=c αi>=0αj>=0αiyi+αjyj=c
其中 c = − ∑ k ≠ i , j α k y k c=-\sum_{k≠i,j}\alpha_ky_k c=k=i,jαkyk,有 α j = c − α i y i y j \alpha_j=\frac{c-\alpha_iy_i}{y_j} αj=yjcαiyi

(2)这样优化目标就相当于只对 α i \alpha_i αi求偏导即可,令导数为0,求得变量值 α i n e w \alpha_i^{new} αinew,进而得到 α j n e w \alpha_j^{new} αjnew

(3)多次迭代直至收敛。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值