机器学习十九:LinearSVM的软间隔最大化模型

本文介绍了线性支持向量机(LinearSVM)在处理异常点时采用的软间隔最大化方法。通过引入松弛变量,SVM允许一定数量的误分类,以提高模型的泛化能力。软间隔最大化的目标函数和优化过程与硬间隔有所不同,但同样可以通过拉格朗日对偶问题和SMO算法求解。支持向量在软间隔最大化中分为不同情况,包括位于超平面、支持向量上或误分类的样本。
摘要由CSDN通过智能技术生成

AI

在机器学习十八:支持向量机(LinearSVM)中,我们对线性可分SVM的模型和损失函数优化做了总结。

在解决线性可分数据集的分类问题时,求得拉格朗日乘子、w、b就得到分离超平面,然后就可以进行分类

最后我们提到了有时候不能线性可分的原因是线性数据集里面多了少量的异常点,由于这些异常点导致了数据集不能线性可分

本篇就对线性支持向量机如何处理这些异常点的原理方法做一个总结。

一 LinearSVM面临的问题

有时候本来数据的确是可分的,也就是说可以用 线性分类SVM的学习方法来求解,但是却因为混入了异常点,导致不能线性可分

比如下图,本来数据是可以按下面的实线来做超平面分离的,可以由于一个橙色和一个蓝色的异常点导致我们没法按照线性支持向量机中的方法来分类。

另外一种情况没有这么糟糕到不可分,但是会严重影响我们模型的泛化预测效果

比如下图,本来如果我们不考虑异常点,SVM的超平面应该是下图中的红色线所示,但是由于有一个蓝色的异常

  • 2
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值