机器学习——支持向量机SVM之软间隔与正则化

1、在SVM基本型的讨论中,我们一直假定样本在样本空间或特征空间中是线性可分的,即存在一个超平面能将不同类的样本完全划分开

2、然而现实任务中往往很难确定合适的核函数使得训练样本在特征空间中线性可分,即使恰好找到某个核函数使训练集样本在特征空间中线性可分,也很难判断是否是过拟合造成的

3、缓解该问题的一个方法是允许支持向量机在一些样本上出错,为此要引入“软间隔”的概念

    a) 软间隔则是允许某些样本不满足约束 y_i (w^T x_i+b)≥1

    b) 故而可在原优化目标中加入损失函数

4、常用损失函数

    a) hinge损失: l_{hinge} (z)=max⁡(0,1-z)

    b) 指数损失: l_{exp} (z)=exp⁡(-z)

    c) 对率损失: l_{log} (z)=log⁡(1+exp⁡(-z) )

    d) 0/1损失函数:


5、软间隔支持向量机

    a) 相对于支持向量机基本型,引入了“松弛变量” ξ_i

    b) 优化目标可重写为

    c) 每个样本都有一个对应的松弛变量,用以表征该样本不满足原约束的程度

6、拉格朗日函数 L(w,b,α,ξ,μ)=1/2 ‖w‖^2+∑_{i=1}^m α_i (1-ξ_i-y_i (w^T x_i+b)) -∑_{i=1}^m μ_i ξ_i

7、拉格朗日函数分别对w,b,求偏导得

8、对偶问题

9、软间隔支持向量机的KKT条件

    a) 若 α_i=0 ,则该样本不会对f(x)有任何影响;若 α_i>0 ,则必有 y_i (w^T x_i+b)=1-ξ_i,该样本为支持向量

    b) 若 α_i<C ,则有 μ_i>0 ,进而有 ξ_i=0 ,即该样本恰在最大间隔边界上;若 α_i=C,则有 μ_i=0 ,进而有 ξ_i≤1 ,即该样本落在最大间隔内部,若 ξ_i>1 则被样本被错误分类

    c) 软间隔支持向量机的最终模型仅与支持向量相关

10、优化目标的更一般形式:

    a) 其中 Ω(f) 称为“结构风险”,用于描述模型f的某些性质,同时也是正则化项

    b) 第二项 ∑_{i=1}^m l(f(x_i ),y_i )  称为“经验风险”,用于描述模型与训练数据的契合程度

    c) C系数用于对二者进行折中,称作正则化系数

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值