机器学习——Support Vector Machine(支持向量机)

 ~~~

支持向量机,因其英文名为support vector machine,故一般简称SVM,通俗来讲,它是一种二类分类模型,其基本模型定义为特征空间上的间隔最大的线性分类器,其学习策略便是间隔最大化,最终可转化为一个凸二次规划问题的求解
~~

间隔与支持向量

给定训练样本集 D = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , … , ( x m , y m ) } , y i ∈ { − 1 , + 1 } D=\left\{\left(\boldsymbol{x}_{1}, y_{1}\right),\left(\boldsymbol{x}_{2}, y_{2}\right), \ldots,\left(\boldsymbol{x}_{m}, y_{m}\right)\right\}, y_{i} \in\{-1,+1\} D={ (x1,y1),(x2,y2),,(xm,ym)},yi{ 1,+1}, 分类学习任务最基本的想法就是基于训练集D在样本空间中找到一个划分超平面

我们划分的这个超平面离两边的样本距离越大,说明划分的越好,我们对这种距离进行刻画。

在样本空间中, 划分超平面可通过如下线性方程来描述:
在这里插入图片描述
其中 w w w为法向量, 决定了超平面的方向; b 为位移项, 决定了超平面与原点之间的距离. 显然, 划分超平面可被法向量w和位移b确定。 样本空间中任意点x到超平面的距离可写为:

r = ∣ w T x + b ∣ ∥ w ∥ r=\frac{\left|\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}+b\right|}{\|\boldsymbol{w}\|} r=wwTx+b { w T x i + b ⩾ + 1 , a m p ; y i = + 1 w T x i + b ⩽ − 1 , a m p ; y i = − 1 \left\{\begin{array}{ll}{\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}_{i}+b \geqslant+1,} & {y_{i}=+1} \\ {\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}_{i}+b \leqslant-1,} & {y_{i}=-1}\end{array}\right. { wTxi+b+1,wTxi+b1,amp;yi=+1amp;yi=1
距离超平面最近的这几个训练样本点使上式的等号成立, 他们被称为支持向量, 两个异类支持向量到超平面的距离之和为

γ = 2 ∥ w ∥ \gamma=\frac{2}{\|\boldsymbol{w}\|} γ=w2
在这里插入图片描述
它被称为 “间隔”
如下图所示,中间的实线便是寻找到的最优超平面(Optimal Hyper Plane),其到两条虚线边界的距离相等,这个距离便是几何间隔 γ \gamma γ,两条虚线间隔边界之间的距离等于 2 γ 2\gamma 2γ,而虚线间隔边界上的点则是支持向量。由于这些支持向量刚好在虚线间隔边界上,所以它们满足 y ( ω T + b ) = 1 y( \omega^T+b)=1 y(ωT+b)=1,而对于所有不是支持向量的点,则显然有 y ( ω T + b ) > 1 y( \omega^T+b)>1 y(ωT+b)>1
在这里插入图片描述

欲找到具有最大间隔的划分超平面, 也就是要找到满足上式的约束的参数w和b, 使得 γ \gamma γ最大, 即 max ⁡ w , b 2 ∥ w ∥  s.t.  y i ( w T x i + b ) ⩾ 1 , i = 1 , 2

  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值