机器学习——支持向量机

本文介绍了支持向量机(SVM)的基本概念,包括超平面、分类间隔和最优超平面。SVM是一种监督学习的二元分类方法,通过寻找最大化分类间隔的超平面来达到良好的分类效果。文章讨论了线性可分、近似线性可分和线性不可分三种情况下的SVM应用,并提到了核函数在解决非线性问题中的作用。此外,还概述了SVM的性能和优缺点,如强大的推广能力、对小样本的适应性以及训练和预测时的计算复杂性问题。
摘要由CSDN通过智能技术生成

前言:本篇文章只是简单的对支持向量机(support vecotor machine)简单的介绍,后续文章还会一一进行数学原理推导(其实我也没有想到这篇文章会有这么高的展现量(其实也就几百),所以就打算进一步介绍SVM)。

硬间隔与支持向量
软间隔与正则化,核函数


一、支持向量机


  • 支持向量机(Support Vector Machine, SVM)是一类按***监督学习(supervised learning)方式对数据进行 二元分类 的广义线性分类(generalized linear classifier),其 决策边界是对学习样本求解的最大边距 超平面(maximum-margin hyperplane)

ps:加粗的都是专业名词,感兴趣的话可以了解下。


二,简单了解SVM

  • 基本原理:基于统计学习理论的方法,是一个二分类的问题。

  • 要了解SVM我们要知道超平面这个东西。

  • 超平面:在几何中,超平面指的是比所处空间少一个维度的子空间。

例子:零维的点可以把一维的线分成两部分,一维的线可以把二维的面分成两部分,二维的面可以把三维的体分成两部分。

其实下图中间的那条实现就是我们超平面,但是我个人更喜欢把这种简单的二维二分类的超平面叫做决策边界

在这里插入图片描述
图片可能看的不是很清楚,其中 w w w是法向量,x也是向量,我会在后续的文章中推导。

至于这两条虚线就是我们的样本中最接近超平面的平行面,我们暂且把这两条虚线的距离叫做 ∣ H 1 H 2 ∣ |H_1H_2| H1H

  • 9
    点赞
  • 27
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值