机器学习(四)监督学习---线性支持向量机SVM

 
 
前言: 回顾下之前所说的线性分类器:
                在这里插入图片描述
              

1. 线性最优超平面

 
Q1: 但是对于wx+b=0这条直线有多种选择,Which is best?
                在这里插入图片描述
A1: Find an optimal hyperplane(最优超平面)

       直观上看,就应该去找位于两类样本"正中间"的最优超平面,它除了能将训练数据正确区分开来,也应该对训练样本局部扰动的"容忍性“最好,但是 如何找到最优超平面?

A2: Maximum margin(最大化间隔)

Definition:任意点 x 到超平面的距离可写为:
                                   在这里插入图片描述
间隔 :让距离超平面最近的这几个训练样本满足式子(6.1):
                            在这里插入图片描述
此时它们被称为"支持向量",而此时间隔计算如下:(x+x- 是距离超平面最近的点)
在这里插入图片描述

根据式子(6.1)可知:   y i ⋅ ( w x i + b ) ≥ 1 \ y_{i}\cdot (wx_{i}+b)\geq 1  yi(wxi+b)1


因此将整个问题转化为:(拉格朗日乘子法)
              在这里插入图片描述
              在这里插入图片描述

参考之前拉格朗日乘子法:
              在这里插入图片描述

第一步: 可知,求的即是:
                                          在这里插入图片描述
第二步: 转化为对偶问题:
                          在这里插入图片描述

第三步: 由于先求 min ⁡ w , b L ( w , b , α ) \min_{w,b}L(w,b,\alpha ) minw,bL(w,b,α),因此对 w、b 求导,得:
              在这里插入图片描述
在这里插入图片描述

第四步: 再将 w、b 回代,转化为max问题:
              在这里插入图片描述

第五步: 除了上面两个式子,根据KKT条件还需要满足一个式子,如下所示:
              在这里插入图片描述
                            在这里插入图片描述

解析:
 
※ 根据 α i ( y i f ( x i ) − 1 ) = 0 \alpha _{i}(y_{i}f(x_{i})-1)=0 αi(yif(xi)1)=0 可知:要么 α i = 0 \alpha _{i}=0 αi=0,要么 y i f ( x i ) − 1 = 0 y_{i}f(x_{i})-1=0 yif(xi)1=0,即在边界,所以只有边界点 α i ≠ 0 \alpha _{i}\neq0 αi=0

  1. 由于大部分的点都不在边界上,所以大部分 αi = 0
  2. w、b都可以由支持向量求出,w已经求出,而b则是根据边界条件 y i ( w T x i + b ) = 1 y_{i}(w^{T}x_{i}+b)=1 yi(wTxi+b)=1求得b

第六步: 求解b:
              在这里插入图片描述

              

2. 广义最优超平面

              在这里插入图片描述
              在这里插入图片描述

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值