机器学习技法 Lecture1: Linear Support Vector Machine

Large-Margin Separating Hyperplane

回忆之前讲过的线性分类模型,使用的是一个加权求和的形式通过一个超平面将正负例分隔开。
在这里插入图片描述
使用PLA算法或是类似的算法,得出来的是一个合理的结果。但是可能存在无数个合理的结果,这些结果里哪一个又是最好的呢?
在这里插入图片描述
这样的情况之前讲的算法和VC bound都没有办法区分开来。但是对于人眼来说可能会选出最右边的是最好的分隔。
在这里插入图片描述
有一个不太正式但是方便理解的解释是说,如果实际中的点是根据高斯分布均匀分布在原来的训练集的点周围,那么最右边的点能够容忍最大的噪声存在,也就因此有了最强的健壮性。
在这里插入图片描述
所以说这个结果的健壮性可能与靠近分隔面最近的点到分隔面的距离有关。加入现在得到的结果是一个有宽度的线或者面,那么它的宽度就代表了最终结果的健壮性。如下图所示,最右边的图有最粗的分隔面。
在这里插入图片描述
因此我们想要的目标就变为找到最宽的分隔面。而这个宽度实际上指的是最近的点x到这个分隔面的距离,也就是margin。因此这个问题可以形式化为如下形式:
在这里插入图片描述
也就是找到一个系数w使得在训练集里距离分隔面最近的点到分隔面的距离margin最大。

Standard Large-Margin Problem

首先回顾一下求点到平面距离的方法。把截距 w 0 w_{0} w0从w向量里拿出来写为b。

  1. 假设平面上存在一个点 x ′ x' x,那么这个点符合公式 w T x ′ + b = 0 w^{T}x'+b=0 wTx+b=0
  2. 将平面外的点 x x x x ′ x' x连为一条线,那么这个点x到平面的距离可以用线段 x x ′ xx' xx投影到法向量 w w w上的部分来表示。
  3. 也就是 d i s t ( x , b , w ) = ∣ w
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值