【斯坦福---机器学习】复习笔记之顺序最小优化算法

本讲大纲:

1.核(kernels)
2.软边界(soft margin)
3.SMO算法(SMO algorithm)

1.核

属性(attributes):原始的输入值(房价的例子中,x,住房的面积)
特征(features):由原始数据映射的一些数据
这里写图片描述来表示特征映射,例如:
这里写图片描述
这里写图片描述代替x.
定义核为:这里写图片描述
这里写图片描述是很容易计算的,即使这里写图片描述计算的代价很大(高维向量). 在这种设定中,在算法中用一个很高效的方法计算这里写图片描述,我们可以让SVM在高维特征中学习,而不用显示的表示出这里写图片描述.

假设这里写图片描述
这里写图片描述
可以写成,这里写图片描述
以n=3为例,这里写图片描述

直观上来说,如果这里写图片描述这里写图片描述很近,我们可能认为这里写图片描述很大,相反,如果很远–几近正交,则这里写图片描述很小. 因此,我们可以认为这里写图片描述可以看作是这里写图片描述相似度的一种测量. 例如,或许选择,这里写图片描述,这是一种合理的测量方法,当x和z很近时值接近于1,很远时值接近0. 在特定的例子中是可以作为SVM的核的. (这个核叫做高斯核 Gaussian kernel,映射到一个无限维的特征)

定理(Mercer):给定K,这里写图片描述是给定的,对于一个确定的核,它的充分必要条件是相应的核矩阵式对称半正定的.

利用核的例子:
数字的识别,分类字符

2.软边界

正则化和不可分的例子(regularization and the non-separable case)
到目前为止,我们讨论SVM时认为数据是线性可分的, 把数据映射到高维空间一般会增加线性可分的可能性,但是我们不能保证一定可以.

左图显示的是一个最优间隔分类器,但是如果在左上区域加上一个异常值,决定边界线会发生剧烈的变化,
导致分类器有更小的边界.
这里写图片描述

为了使算法能够处理非线性可分的数据集并且对异常值不会这么敏感, 修订优化问题如下:
这里写图片描述

因此,样本现在允许边界小于1.

3.SMO算法

SMO(sequential minimal optimization)算法起源于SVM, John Platt起初了一个高效解决对偶问题的方法.

坐标上升(Coordinate ascend)
对于没有限制的优化问题:
这里写图片描述,除了用梯度上升和牛顿方法,还能使用坐标上升算法:
这里写图片描述
下图是坐标上升执行的一个过程:
这里写图片描述

这是我们要解决的对偶问题:
这里写图片描述

这里不能直接使用坐标上升算法,因此(19)的限制. 因此我们至少要同时改变两个才能满足限制. 因此:
这里写图片描述

SMO算法之所以高效是能够很高效的计算出ai,aj.

以改变a1,a2为例,这里写图片描述(常数),a1、a2的限制如下图所示:
这里写图片描述
得到:
这里写图片描述
之后计算出a1的值.

  • 2
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值