SVM(支持向量机)

SVM是一种用于二分类的分类算法,通过数据集训练得到的分类器,可以用来预测新的样本的类别(正例或负例两种类别)。SVM也可以用于回归。

文本仅讲述支持向量分类器(SVC)。根据数据集的不同,SVM可以分为三类:

  1. 线性可分

  2. 线性不可分

  3. 非线性

下面,以线性可分的情况为例,讲解SVM的概念和基本公式推导过程。

 

一、什么是SVM

先以一个二维数据集实例为例,介绍SVM的概念,直观理解SVM的作用。

如下图所示,是一个训练集(二维平面上的点集),其中黑色为正例,红色点为负例,这是他们的类别标签(label)。现在,需要根据训练集求出一条线,对测试集的点进行分类。在直线两侧的样本分别属于不同的两类。

现在,有如下图的两条直线,用于分类。

那么哪条直线的分类效果最好呢,直观地看,是L2。可以看一下,这两种情况下对新的样本(下图中绿色的点)的分类预测情况,如下图。

可以看出,在第一种分类下,第一个绿点被分类为负例,然而直观地看,这个点明显于是正例的一类,第二个绿点的分类情况类似。在第二种分类下,两个绿点(直观上)都被正确地分类,所以我们选择L2作为分类的标准。

下面,记我们选择的这条直线为L。我们将L沿着左下和右上的方向,移动,直到直线分别第一次接触到两个类中的点,达到如下图所示的状态。

我们将L+和L-上的点称作:支持向量,这就是支持向量机这个名称的来源。

回过头来思考之前那个问题,为什么L2比L1好?因为L2(L),距离支持两个类别中的支持向量的距离大。可以看下面的对比图。

如上图,前面提到的第一条直线,距离两个类的支持向量的距离非常小。因此,我们在寻找最优的直线的时候,可以以直线距离两个类中的支持向量的和作为目标函数,让这个目标最大化。对应的直线,就是我们要寻找的直线。

转载:https://blog.csdn.net/ten_sory/article/details/81063911

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值