SVM支持向量机学习

支持向量机(Support Vector Machine)是一种监督学习,对数据进行二分类问题的线性分类器。其中最主要的问题就是计算决策边界。

那什么是决策边界呢?

如图所示,在二维空间下有两类点(红点和黄点),对于这种简单的分类,我们需要找到一条路(注意这里的路是有宽度的),使得离这条路中心线最近的点最远。

什么最近最远,我有点晕???!

如图有三条路,任务是选择一条路离最近的点最大,说白了就是让路的宽度最大化。

这是二维情况下的,那么三维,四维,五维呢?

首先,根据点到直线的距离公式,推导出高维的距离计算公式:

d=\frac{|W^{T} X+b|}{\left \| W \right \|}

怎么理解这个公式呢?

首先假设三维平面上有条直线段<X-X2>,做直线的投影到平面上于X1点。平面的法向量为W。那么可知W*(x1-x2)=0

x到平面的距离为distance = \frac{|W^{T}(x-x1)|}{\left \| W \right \|}                    (2)

又因为x1在平面W^{T}X+b=0上,所以W^{T}x1=-b,带入原式就是公式(1)的结果。

令yi ={+1,-1},y(x) = W^{T}\varphi (x)+b,d=yi*\frac{W^{T} X+b}{\left \| W \right \|},当yi=1时,y(xi)>0,当yi=-1时,y(xi)<0,那么绝对值可以去掉。

将X可以放缩为\varphi (x),使得yi*(W^{T}\varphi (x)+b) >=1,

这时优化目标arg(w,b) max ( \frac{1}{\left \| W \right \|}min[yi*W^{T}(\varphi (x)+b)])由于yi*(W^{T}\varphi (x)+b) >=1转化为只需考虑arg(w,b) = max(\frac{1}{\left \| W \right \|}),求极大值问题转化为求极小值问题min(w,b) \frac{1}{2}W^{2}

s.t. yi*(W^{T}\varphi (x)+b) >=1,i=1,.....,m

未完待续。。。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值