机器学习(五):w·x+b模型(2)

本文深入探讨支持向量机(SVM),从训练集完全线性可分的情况出发,介绍了选择最大边距超平面的方法。接着讨论线性不可分情况下的损失函数和学习策略,包括合页损失函数和引入惩罚项。学习算法部分讲解了直接使用二次规划和对偶问题解决线性不可分问题,并解释了α的物理意义。此外,还详细阐述了核技巧,如高斯核函数,以及SVM与正则化逻辑回归的区别。
摘要由CSDN通过智能技术生成

3. 支持向量机SVM

SVM主要用于分类问题, wRn,bR,y{ 1,1} (注意此处不再将b视为 w0 )

3.1 引言

3.1.1 training set完全线性可分

假设有很多wx+b=0超平面可以将training set中的数据正确分类,那么应该选用哪个(w,b)呢?如下图所示:
这里写图片描述
很容易凭借直觉选出wx+b=0与所有的数据点都比较远的超平面,由此我们可以选择这样的(w,b):
使得 maxwmargin(w) ,其中 margin(w)=minn=1..m1||w|||wTx+b| ,这样做的一个问题是:假设(w’,b’)我们最终选择出来的参数值,那么(cw’,cb’)也满足条件(其中c为任意非零实数)。
为了解决这一问题,我们要求只在这样的(w,b)中选取: minn=1..m|wTx+b|=1
如果这样的话,问题就转化成:

maxb,w1||w|| subject tominn=1..m|wTx+b|=1
并且(w,b)应当满足将training set正确分类这一限制条件:对于每个数据,应该用 yi(wTxi+b)>0 ,可以看到只要满足条件 minn=1..m|wTx+b|=1 ,必然会满足 y(i)(wTx(i)+b)>0 ,所以最终形式是:
minb,w12wTw
s.t. y(i)(wTx(i)+b)1
直观上来说会找到这样的超平面:
这里写图片描述

3.1.2 training set线性不可分

对于分错类的数据应当引入惩罚项。假设 (x(i),y(i)) 出现分类错误,那么如何衡量这一错误?
很自然就想到使用: C×

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值