【机器学习实战】第6章 支持向量机

 

 

原文链接 : https://github.com/apachecn/MachineLearning

译文链接 : http://www.apache.wiki/pages/viewpage.action?pageId=10027334

贡献者 : 片刻 ApacheCN Apache中文网

支持向量机_首页

 

支持向量机的概念

支持向量机(Support Vector Machines, SVM)

  • 支持向量(Support Vector)就是离分隔超平面最近的那些点。
  • 机(Machine)就是表示一种算法,而不是表示机器。
  • SVM有很多种实现,最流行的一种实现是: 序列最小优化(Sequential Minimal Optimization, SMO)算法
  • 下面还会介绍一种称为核函数(kernel)的方式将SVM扩展到更多数据集上。
  • 实战项目:回顾第2章中手写识别的案例,并考察其能否通过SVM来提高识别的效果。
  • 注意:SVM几何含义比较直观,但其算法实现较复杂,牵扯大量数学公式的推导。
优点:泛化错误率低,计算开销不大,结果易理解。
缺点:对参数调节和核函数的选择敏感,原始分类器不加修改仅适合于处理二分类问题。
使用数据类型:数值型和标称型数据。

 

基于最大间隔分隔数据

  • 数据可以通过画一条直线就可以将它们完全分开,这组数据叫线性可分(linearly separable)数据。
  • 而这条分隔直线称为分隔超平面(separating hyperplane)
  • 如果数据集上升到1024维呢?那么需要1023维来分隔数据集,也就说需要N-1维的对象来分隔,这个对象叫做超平面(hyperlane),也就是分类的决策边界。
  • 分隔超平面

 

寻找最大间隔

为什么寻找最大间隔

摘录地址:http://slideplayer.com/slide/8610144  (第12条信息)
Support Vector Machines: Slide 12 Copyright © 2001, 2003, Andrew W. Moore Why Maximum Margin? 
denotes +1 denotes -1 f(x,w,b) = sign(w. x - b) The maximum margin linear classifier is the linear classifier with the, um, maximum margin. 
This is the simplest kind of SVM (Called an LSVM) Support Vectors are those datapoints that the margin pushes up against 

1.Intuitively this feels safest. 
2.If we’ve made a small error in the location of the boundary (it’s been jolted in its perpendicular direction) this gives us least chance of causing a misclassification. 
3.CV is easy since the model is immune to removal of any non-support-vector datapoints. 
4.There’s some theory that this is a good thing. 
5.Empirically it works very very well. 

* * *

1. 直觉上是安全的
2. 如果我们在边界的位置发生了一个小错误(它在垂直方向上被颠倒),这给我们最小的错误分类机会。
3. CV很容易,因为该模型对任何非支持向量数据点的去除是免疫的。
4. 有一些理论,这是一件好事。
5. 通常它的工作非常好。
  • 选择D会比B、C分隔的效果要好很多,原因是上述的5个结论。
  • 所有的点看作地雷吧,那么我们(超平面)得找到最近所有的地雷,并保证我们离它最远。 
  • 线性可分

 

怎么寻找最大间隔

点到超平面的距离

  • 分隔超平面函数间距: y(x )=
  • 分类的结果:,<0为-1,=0为0)
  • 点到超平面的几何间距:  (||w||表示w矩阵的二范式=>  , 点到超平面的距离也是类似的,需要复习一下向量的知识) 

  • 点到直线的几何距离
  • 拉格朗日乘子法的使用

    • 类别标签用-1、1,是为了后期方便 的标识和距离计算;如果 表示预测正确,否则预测错误。
    • 现在目标很明确,就是要找到wb,因此我们必须要找到最小间隔的数据点,也就是前面所说的支持向量
      • 也就说,让最小的距离取最大.(最小的距离:就是最小间隔的数据点;最大:就是最大间距,为了找出最优超平面--最终就是支持向量)
      • 怎么理解呢? 例如: 所有的点看作地雷吧,那么我们(超平面)得找到最近所有的地雷,并保证我们离它最远。
      • 目标函数:
      • 1.如果 表示预测正确,也称函数间隔,||w|| 可以理解为归一化,也称几何间隔,我们始终可以找到一个阈值让 
      • 2.所以令 ,我们本质上是求 ;也就说,我们约束(前提)条件是: 
    • 新的目标函数求解:
      • => 就是求: (求矩阵会比较麻烦,如果x只是的偏导数,那么。。同样是求最小值)
      • => 就是求:  (二次函数求导,求极值,平方也方便计算)
      • 本质上就是求线性不等式的二次优化问题(求分隔超平面,等价于求解相应的凸二次规划问题。)
    • 通过拉格朗日乘子法,求二次优化问题
      • 假设需要求极值的目标函数 (objective function) 为 f(x,y),限制条件为 φ(x,y)=M # M=1
      • 设g(x,y)=M-φ(x,y) # 临时φ(x,y)表示下文中
      • 定义一个新函数: F(x,y,λ)=f(x,y)+λg(x,y)
      • a为λ,代表要引入的拉格朗日乘子(Lagrange multiplier)
      • 那么: 
      • 因为:,a>0 , 所以 
      • 如果求: , 也就是要求:
    • 现在转化到对偶问题的求解
      •  >=
      • 现在分2步
      • 先求: 
      • 就是求L(w,b,a)关于[w, b]的偏导数, 得到w和b的值,并化简为:L和a的方程
      • 参考: 如果公式推导还是不懂,也可以参考《统计学习方法》李航-P103<学习的对偶算法>
    • 终于得到课本上的公式: 
    • 约束条件: 
  • 松弛变量(slack variable)

    • 我们知道几乎所有的数据都不那么干净, 通过引入松弛变量来允许数据点可以处于分隔面错误的一侧。
    • 约束条件:
    • 这里常量C用于控制“最大化间隔”和“保证大部分点的函数间隔小于1.0” 这两个目标的权重。
    • 常量C是一个常数,我们通过调节该参数得到不同的结果。一旦求出了所有的alpha,那么分隔超平面就可以通过这些alpha来表示。
    • 这一结论十分直接,SVM中的主要工作就是要求解 alpha.

    SVM应用的一般框架

    SVM的一般流程
    收集数据:可以使用任意方法。
    准备数据:需要数值型数据。
    分析数据:有助于可视化分隔超平面。
    训练算法:SVM的大部分时间都源自训练,该过程主要实现两个参数的调优。
    测试算法:十分简单的计算过程就可以实现。
    使用算法:几乎所有分类问题都可以使用SVM,值得一提的是,SVM本身是一个二类分类器,对多类问题应用SVM需要对代码做一些修改。
    
    • 到目前为止,我们已经了解了一些理论知识,现在我们通过Code来实现我们的算法吧。

 

 

SMO高效优化算法

序列最小优化(Sequential Minimal Optimization, SMO)

  • 创建作者:John Platt
  • 创建时间:1996年
  • SMO用途:用于训练SVM
  • SMO目标:求出一系列alpha和b,一旦求出alpha,就很容易计算出权重向量w并得到分隔超平面。
  • SMO思想:是讲大优化问题分解为多个小优化问题来求解的。
  • SMO原理:每次循环选择两个alpha进行优化处理,一旦找出一对合适的alpha,那么就增大一个同时减少一个。
    • 这里指的合适必须要符合一定的条件
      • 1.这两个alpha必须要在间隔边界之外
      • 2.这两个alpha还没有进行过区间化处理或者不在边界上。
    • 之所以要同时改变2个alpha;原因,我们有一个约束条件: \(\sum_{i=1}^{m} a_i·label_i=0\);如果只是修改一个alpha,很可能导致约束条件失效。
SMO伪代码大致如下:

创建一个alpha向量并将其初始化为0向量
当迭代次数小于最大迭代次数时(外循环)
    对数据集中的每个数据向量(内循环):
        如果该数据向量可以被优化
            随机选择另外一个数据向量
            同时优化这两个向量
            如果两个向量都不能被优化,退出内循环
    如果所有向量都没被优化,增加迭代数目,继续下一次循环

 

SVM简化版:应用简化版SMO算法处理小规模数据集

代码可参考 svm-simple.py

SVM完整版:使用完整 Platt SMO算法加速优化

代码可参考 svm-complete_Non-Kernel.py

 

  • 优化点:选择alpha的方式不同。

 

在复杂数据上应用核函数

  • 对于线性可分的情况,效果明显
  • 对于非线性的情况也一样,此时需要用到一种叫核函数(kernel)的工具将数据转化为分类器易于理解的形式。

利用核函数将数据映射到高维空间

  • 使用核函数:可以将数据从某个特征空间到另一个特征空间的映射。(通常情况下:这种映射会将低维特征空间映射到高维空间。)
  • 如果觉得特征空间很装逼、很难理解。
  • 可以把核函数想象成一个包装器(wrapper)或者是接口(interface),它能将数据从某个很难处理的形式转换成为另一个较容易处理的形式。
  • 经过空间转换后:低维需要解决的非线性问题,就变成了高维需要解决的线性问题。
  • SVM优化特别好的地方,在于所有的运算都可以写成内积(inner product: 是指2个向量相乘,得到单个标量 或者 数值);内核替换成核函数的方式被称为核技巧(kernel trick)或者核"变电"(kernel substation)
  • 核函数并不仅仅应用于支持向量机,很多其他的机器学习算法也都用到核函数。最流行的核函数:径向基函数(radial basis function)
  • 径向基函数的高斯版本,其具体的公式为:

 

 

先前我们用了差不多 1.5个 月的时间学习和录制完《机器学习实战》(2017-02-27 ~ 2017-04-08)    

完成:

2017-03-18 机器学习线下第一次交流

2017-03-25 机器学习线下第二次交流

2017-04-02 机器学习线下第三次交流

2017-04-08 机器学习线下第四次交流【第一期结束】

优酷视频地址:  http://i.youku.com/apachecn
百度网盘地址:  http://pan.baidu.com/s/1eS44hCu
GitHub地址:    https://github.com/apachecn/MachineLearning
Machine Learning地址: http://www.apache.wiki/display/ML/Machine+Learning

感谢无私奉献代码和参与线下录制的朋友们1988   羊三   片刻   geekidentity   小瑶   那伊抹微笑   yangjifei   小茗同学   ApacheCN   Apache中文网 

转载于:https://my.oschina.net/repine/blog/886237

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值