机器学习-支持向量机 2

线性支持向量机与软间隔最大化

 1.线性支持向量机

线性可分问题是支持向量机学习方法,对线性不可分数据是不适用的。

通常情况下,训练数据中有一些特异点,将这些特异点取出后,剩下的大部分的样本点组成的集合是线性可分的。

线性不可分意味着不能满足硬间隔最大化约束条件,因此,可以对每个样本点引入一个松弛变量 \xi _{i}\geqslant 0 ,使函数间隔加上松弛变量大于等于1,这样,约束条件变为

                                                              y_{i}(w\cdot x_{i}+b)\geqslant 1-\xi _{i}

同时对每个松弛变量 \xi _{i} ,支付一个代价 \xi _{i} ,目标函数由原来的 \frac{1}{2}||w||^{2} 变成  

                                                             \frac{1}{2}||w||^{2}+C\sum_{i=1}^{N}\xi _{i}

这里C> 0作为惩罚函数,C值增大时对五分类的惩罚增大。

最小化新的目标函数包含两层含义:使\frac{1}{2}||w||^{2}尽量小,间隔尽量大;使误分类点的个数尽量小。C是调和两者的系数。

上面的方法称为软间隔最大化

综上,线性不可分的线性支持向量机的学习问题变成如下如凸二次规划问题(原始问题):

                                                              \min_{w,b,\xi } \ \ \ \frac{1}{2}||w||^{2}+C\sum_{i=1}^{N}\xi _{i}

                                                              s.t. \ \ \ \ \ y_{i}(w\cdot x_{i}+b)\geqslant 1-\xi _{i}, \ \ i=1,2,\cdots ,N

                                                                           \xi _{i}\geqslant 0, \ \ i=1,2,\cdots ,N

原始问题(即上式)是一个凸二次规划问题,因而关于 (w,b,\xi) 的解是存在的。

w的解是唯一的,b的解可能不唯一,而是存在于一个区间(具体原因还没懂)。

线性支持向量机包含线性可分支持向量机,由于现实中的数据往往是线性不可分的,线性支持向量机具有更广阔的适用性。

 

 

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值