支持向量机SVM

支持向量机由于其优异的性能,在机器学习中与神经网络共享美誉。

支持向量机的前身是最优间隔分类问题,在后者基础上加上核函数,便摇身一变为了SVM。

本文参考周志华《机器学习》以及吴恩达网易公开课《机器学习》

问题描述

给定训练样本训练集D={(x1,y1),(x2,y2),...,(xm,ym)},yi∈{-1,+1},分类学习最基本的想法就是基于训练集D在样本空间中找到一个划分超平面,将不同类别样本分开,如下图所示。

超平面很多,应该如何选取呢?直观来看,应该去找位于两类训练样本“正中间”的划分超平面,即上图中加粗的那个,因为该划分超平面使得对训练数据样本局部扰动的“容忍”性最好。最大化间隔,并限制训练样本数据(+例,-例)都与超平面的距离大于该间隔。

假设由(w,b)确定的超平面能将训练样本正确分类,即对于(xi,yi)∈D,若yi=+1,我们希望z = wx+b>0,即会有sigmoid(z)>0.5,为正例概率大于0.5;反之,若yi=-1,我们希望z =wx+b<0,即会有simoid(z)<0.5,为反例的概率大于0.5。令:

用图来描述上式,就是:

因此,为了最大化间隔(2/||w||),等价于最小化||w||,于是就有了支持向量机(SVM)的基本型:

对偶问题

SVM基本型本身就是一个凸二次规划问题,能直接用现成的优化计算包求解,但是有更高效的方法

使用拉格朗日

  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值