【机器学习】支持向量机(SVM)算法

背景

  1. 最早是由 Vladimir N. Vapnik 和 Alexey Ya. Chervonenkis 在1963年提出
  2. 目前的版本(soft margin)是由Corinna Cortes 和 Vapnik 在1993年提出,并在1995年发表
  3. 深度学习(2012)出现之前,SVM被认为机器学习中近十几年来最成功,表现最好的算法

机器学习的一般框架:

训练集 =》 提取特征向量 =》 结合一定的算法(分类器:比如决策树,KNN)=》得到结果

介绍

  1. 例子:
    在这里插入图片描述
    两类?哪条线最好?

  2. SVM寻找区分两类的超平面(hyper plane),使边际(margin)最大

在这里插入图片描述
总共可以有多少个可能的超平面?无数条

如何选取使边际(margin)最大的超平面(Max Margin Hyperplane)?

超平面到一侧最近点的距离等于到另一侧最近点的距离,两侧的两个超平面平行

  1. 线性可区分(linear separable)和 线性不可区分(linear inseparable)
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

  2. 定义与公式建立
    超平面可以定义为:
    在这里插入图片描述
    W:weight vectot,
    在这里插入图片描述
    n是特征值的个数
    X:训练实例
    b:bias
    在这里插入图片描述
    假设2维特征向量:X =(x1, x2)

把 b 想象为额外的weight

超平面方程变为:
在这里插入图片描述
所有超平面右上方的点满足:

在这里插入图片描述
调整weight,使超平面定义边际的两边:
在这里插入图片描述
综合以上两式,得到:(1)
在这里插入图片描述
所有坐落在边际的两边的超平面上的被称作“支持向量(support vectors)”
分界的超平面和H1或H2上任意一点的距离为

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

笑起来贼好看

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值