SVM的分类原理

SVM的主要思想可以概括为两点: (1) 它是针对线性可分情况进行分析,对于线性不可分的情况,通过使用非线性映射算法将低维输入空间线性不可分的样本转化为高维特征空间使其线性可分,从而使得高维特征空间采用线性算法对样本的非线性特征进行线性分析成为可能; (2) 它基于结构风险最小化理论之上在特征空间中建构最优分割超平面,使得学习器得到全局最优化,并且在整个样本空间的期望风险以某个概率满足一定上界。
          支持向量机的目标就是要根据结构风险最小化原理,构造一个目标函数将两类模式尽可能地区分开来, 通常分为两类情况来讨论, (1) 线性可分,(2) 线性不可分   
         1. 1  线性可分情况在线性可分的情况下
         ,就会存在一个超平面使得训练样本完全分开,该超平面可描述为:       w ·x + b = 0 (1)   其中,“·”是点积, w n 维向量, b 为偏移量

           最优超平面是使得每一类数据与超平面距离最近的向量与超平面之间的距离最大的这样的平面 .
           最优超平面可以通过解下面的二次优化问题来获得
                                                  

       满足约束条件:         , i = 1 ,2 ,3 ,......, n.            (3)   

        在特征数目特别大的情况,可以将此二次规划问题转化为其对偶问题:

                                                          (4)
                                                                             (5)
                                                                              (6)

                  

                    满足约束条件 :                                   (7)

                 这里 是Lagrange 乘子, 是最优超平面的法向量, 是最优超平面的偏移量,在这类

               优化问题的求解与分析中, KKT条件将起到很重要的作用,在(7) 式中,其解必须满足:
                                                               (8)
               从式(5) 可知,那些 = 0 的样本对分类没有任何作用,只有那些 > 0 的样本才对分类起作用,这些样

               本称为支持向量,故最终的分类函数为:

                                                                (9)

               根据f ( x) 的符号来确定X 的归属。

1. 2  线性不可分的情况

                 对于线性不可分的情况,可以把样本X 映射到一个高维特征空间H,并在此空间中运用原空间的函

              数来实现内积运算,这样将非线性问题转换成另一空间的线性问题来获得一个样本的归属. 根据泛函的

              有关理论,只要一种核函数满足Mercer 条件,它就对应某一空间中的内积,因此只要在最优分类面上采

              用适当的内积函数就可以实现这种线性不可分的分类问题. 此时的目标函数为:

                                                             (10)

              其相应的分类函数为:                                       (11)

               1. 3   内积核函数
                    目前有三类用的较多的内积核函数:第一类是

                                                                (12)             

              我们所能得到的是p阶多项式分类器,第二类是径向基函数(RBF),也称作高斯核函数:

         

                           

              第三类是Sigmoid函数:
                                   
              这时SVM实现的就是包含一个隐层感知器,隐层结点数是由算法自动确定的。究竟用哪一种
              核函数比较好了?这还是取决你对数据处理的要求,不过建议可以使用径向基函数。

 

转载于:https://www.cnblogs.com/songQQ/archive/2009/12/31/1636672.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值