机器学习——SVM算法原理(2)

本文深入探讨了线性支持向量机的概念,包括其如何通过软间隔最大化来处理非线性数据。文章分别阐述了线性支持向量机的基本原理、对偶算法的求解过程以及线性支持向量机的学习算法,旨在帮助读者全面了解SVM在机器学习中的应用。
摘要由CSDN通过智能技术生成

(2)线性支持向量机与软间隔最大化

1.线性支持向量机

针对线性可分的数据,我们可以采用线性可分支持向量机进行划分,模型如下:
(1)
但是对于线性不可分的数据集,通常情况下,训练数据中存在一些特异点,当去除特异点后,剩下的样本点组成的集合是线性可分的。那么针对线性不可分数据集,意味着默写样本点(特异点)不满足函数间隔大于等于1的约束条件。为解决这个问题,我们对这些特异点引入了一个 松弛变量,使函数间隔加上松弛变量后大于等于1,而且同时对每一个松弛变量都对目标函数支付一个 代价,从而线性不可分的线性支持向量机可以表示为:

2)
(这里的C>0称为惩罚参数。在(2)式中目标函数具有两个含义:1.使得间隔尽量大;2.使得误分类点个数尽量小)

2.对偶算法求解

利用拉格朗日对偶性,和求解线性可分支持向量机相同的算法,我们可以得到原始问题(2)的对偶问题:

(3)
如果存在上述问题的解α*,那么原始问题(2)的解为:
4)

3.线性支持向量机学习算法

通过比较线性可分支持向量机和线性支持向量机,在对偶求解时,区别是线性支持向量机需要考虑一个惩罚参数C,并且αi取值要小于等于C
 对于约束条件的理解:在两条间隔线外面的点,对应前面的系数clip_image084为0,在两条间隔线里面的对应clip_image084[1]为C,在两条间隔线上的对应的系数clip_image084[2]在0和C之间。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值