SVM学习笔记

SVM个人理解


核心

SVM(Support Vector Machine),二分类模型(可扩展为多分类模型, One-vs-rest or one-vs-one,也可做回归,参考SVR)。其要点如下:

  • Maximum geometric margin: 求空间中一超平面得到最大分类间隔
  • Hinge loss: 对支持向量施加的松弛惩罚
  • Kernel trick: 利用核函数非线性分类

概念

  • 问题形式化:给定训练数据集
    T=(x1,y1),(x2,y2),,(xN,yN)

    ,xiRn,yi{ +1,1},i=1,2,,N,xiiyixi
  • 线性可分: 假设训练集在输入空间线性可分,即存在一个超平面: wx+b=0 能够完全划分正负实例点。
  • 函数间隔
    γ^=mini=1,,Nyi(wxi+b)
  • 几何间隔
    γ=mini=1,,Nyi(wxi+b)w=γ^w

线性可分支持向量机


对于线性可分的训练数据集,可以证明一定存在唯一的超平面能够最大化几何间隔。我们认为具有最大间隔的超平面具有最佳分类效果。
在这,个人对函数间隔与几何间隔这样理解。对同一个超平面,通过比例缩放 w b ,函数间隔也会同比例变化。也就是说,对于一个成功划分正负实例的超平面(不一定最优),该平面固定,但是通过缩放 w b ,可以使其function margin取任何正值。而我们的目标是找到具有最大margin的超平面。显然通过最大化函数间隔没有意义,因为任何成功划分训练实例的超平面都可以使函数间隔无限大。我们注意到,对一个超平面,函数间隔与 w 的比值保持不变,也就是说几何间隔与超平面关联。所以,我们目标是最大化几何间隔,而且我们可以令函数间隔为1,然后最小化 w 达到最大化几何间隔目的。

因此,线性可分支持向量机学习算法-最大硬间隔法

约束最优化问题

minw,b12w2s.t. yi(wxi+b)10,i=1,2,,N

求得最优解 w b
超平面
wx+b=0

分类决策函数
  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值