支持向量机(二)——松弛变量处理异常点

本文是支持向量机系列的第二篇,探讨了如何使用松弛变量处理异常点,以实现软间隔最大化。在原始问题中,通过引入松弛变量ξi来允许样本点偏离,优化问题考虑了异常点的存在。接着,介绍了对偶问题的构建和求解过程,以及支持向量的概念,包括它们在间隔边界、内部和误分类的情况。
摘要由CSDN通过智能技术生成

2 松弛变量处理异常点

2.1 原始问题

在博文支持向量机(一)——线性可分支持向量机 一文中,我们介绍了训练数据集线性可分的情况下,应用硬间隔最大化策略得到最优超平面。但是在实际情况中,训练集有很大可能存在噪声,使得某些样本偏离正常范围,称这些样本为异常点,如下图所示
这里写图片描述

这时如果应用硬间隔最大化,得到的最优超平面是图中的黑色实线;而如果不迁就左上角的异常点,得到的最优分类超平面为黑色虚线。可以看出实线是对训练集过拟合的结果,而虚线的泛化能力更好。所以完全正确分类的超平面不一定是最好的。

另外,当训练集本身线性不可分的时候,是不存在能将数据集完全正确分离的超平面的。

线性不可分数据集
不存在超平面能将数据集完全正确划分,但是去除掉一小部异常点之后,剩下的大部分数据是线性可分数据。

对于以上两种情况,硬间隔最大策略不再受欢迎或者有效。此时,我们需要考虑软间隔最大化。软间隔最大化允许样本点落在间隔边界内部甚至允许误分类样本点存在(我们称这些点为超平面的异常点)。这是通过为每个样本点引入一个松弛变量 ξi0 实现的,只要样本点的函数间隔加上 ξi 之后大于等于1即可。由于 ξi 代表了样本点的偏离距离,需要对总偏移距离进行限制。于是引入了松弛变量的原优化问题现在为

minω,bs.t.12||ω||2+Ci=1mξiyi(ωTxi+b)+ξi1ξi0(26)

C>0 是惩罚因子,C值大时,对超平面的异常点惩罚较重,也就是说不希望有异常点存在;C值小时,对超平面异常点的惩罚较小。当训练数据线性可分时,如果令 C=+ ,那么优化问题(1)等价于线性可分支持向量机的优化问题。

优化问题(1)可以这样理解:从训练集中选择部分样本,称为剩余训练集,剩余训练集是线性可分的,其余样本点作为异常点。对剩余训练集进行硬间隔最大化,也就是说从函数间隔为1的超平面中选择几何间隔最大的,但同时还要考虑异常点对超平面的偏移程度最小。遍历所有可能的剩余训练集,得到最优的超平面。

2.2 对偶问题

通过极大极小拉格朗日函数,可以得到原始问题(26)的对偶问题。

引入拉格朗日乘子 αi0,μi0 ,构建拉格朗日函数

L(ω,b,ξ,α,μ)=12||ω||2+Ci=1mξi+i=1mαi(1yi(ωTxi+b)ξi)i=1mμiξi(27)

原始问题的对偶问题为:

maxα,μminω,b,ξL(ω,b,ξ,α,μ)

为了求对偶问题,首先需要求极小化问题 minω,b,ξL(ω,b,ξ,α,μ) 。令

ωL=ωi=1mαiyixi=0(28)

bL=i=1mαiyi=0(29)

ξiL=Cαiμi=0(30)

得到:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值