支持向量机(SVM)算法

支持向量机(support vector machine)是一种分类算法,通过寻求结构化风险最小来提高学习机泛化能力,实现经验风险和置信范围的最小化,从而达到在统计样本量较少的情况下,亦能获得良好统计规律的目的。通俗来讲,它是一种二类分类模型,其基本模型定义为特征空间上的间隔最大的线性分类器,即支持向量机的学习策略便是间隔最大化,最终可转化为一个凸二次规划问题的求解。

具体原理:

1. 在n维空间中找到一个分类超平面,将空间上的点分类。如下图是线性分类的例子。

2. 一般而言,一个点距离超平面的远近可以表示为分类预测的确信或准确程度。SVM就是要最大化这个间隔值。而在虚线上的点便叫做支持向量Supprot Verctor。

3. 实际中,我们会经常遇到线性不可分的样例,此时,我们的常用做法是把样例特征映射到高维空间中去(如下图);

3. 线性不可分映射到高维空间,可能会导致维度大小高到可怕的(19维乃至无穷维的例子),导致计算复杂。核函数的价值在于它虽然也是讲特征进行从低维到高维的转换,但核函数绝就绝在它事先在低维上进行计算,而将实质上的分类效果表现在了高维上,也就如上文所说的避免了直接在高维空间中的复杂计算。

4.使用松弛变量处理数据噪音

SVM的优点:

1. SVM学习问题可以表示为凸优化问题,因此可以利用已知的有效算法发现目标函数的全局最小值。而其他分类方法(如基于规则的分类器人工神经网络)都采用一种基于贪心学习的策略来搜索假设空间,这种方法一般只能获得局部最优解。

2. 假设现在你是一个农场主,圈养了一批羊群,但为预防狼群袭击羊群,你需要搭建一个篱笆来把羊群围起来。但是篱笆应该建在哪里呢?你很可能需要依据牛群和狼群的位置建立一个“分类器”,比较下图这几种不同的分类器,我们可以看到SVM完成了一个很完美的解决方案。

    这个例子从侧面简单说明了SVM使用非线性分类器的优势,而逻辑模式以及决策树模式都是使用了直线方法。

 

摘抄自http://blog.csdn.net/v_july_v/article/details/7624837。

支持向量机Support Vector MachineSVM)是一种用于分类和回归分析的监督学习算法。其理论基础可以从以下几个方面进行解释: 1. 最大间隔分类器:SVM的目标是找到一个能够将不同类别的样本点分开的超平面。这个超平面应该最大化两个不同类别样本点之间的间隔,也就是最大化两个类别支持向量(距离超平面最近的样本点)之间的距离。 2. 核函数:SVM算法可以通过使用核函数将输入空间映射到高维特征空间,进而解决非线性可分的问题。常用的核函数有线性核、多项式核和高斯核等。 3. 优化问题:SVM的目标是求解一个凸二次规划问题,通过最小化目标函数来找到最优的超平面。优化问题的目标函数包括正则化项和经验风险项,其中正则化项用于控制模型的复杂度,经验风险项用于使分类误差最小化。 4. 对偶问题:SVM的优化问题可以通过对偶问题进行求解。对偶问题可以转化为一个只与支持向量相关的表达式,从而减少了计算的复杂度。 5. 软间隔与惩罚因子:SVM可以允许一定程度的样本点分类错误,即存在一些样本点位于超平面的误分类区域内。通过引入惩罚因子,SVM可以在最大化间隔的同时,尽量减小误分类点的数量。 总的来说,SVM的理论基础包括最大间隔分类器、核函数、优化问题、对偶问题以及软间隔与惩罚因子等。这些理论基础使得SVM成为了一个强大的分类算法,在实际应用中取得了广泛的成功。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值