斯坦福公开课《机器学习》第五章SVM笔记

为函数间隔的定义




考虑训练样本里r hat的最小值,对应的是训练样本里函数间隔的最坏情形:
几何间隔:


= r hat / || w ||



最优间隔分类器的定义:

拉格朗日对偶性:略。

若要dual*=primary*=L(w*, α*, β*),w*, α*,β*满足KKT dual complementarity condition(KKT对偶互补条件):

优化间隔分类器:
考虑此分类器的定义,令:

则可得拉格朗日优化问题:

对w, b求偏导数如下:
此外又有:

进而得到:

核函数:(未理解明白)
用核函数代替上式中的内积,将变量映射到更高维空间。这样计算内积就好,而不必把向量装入内存(事实上也装不下)。

此式对应的 映射 为:

高斯核:
如何判断一个核是valid的:

即:K是一个valid的核     等价于     它所对应的核矩阵是对称半正定矩阵

在数据是非线性可分的情况下:

称为     L1 norm soft margin SVM。是一个凸优化问题。
它允许间隔小于1,即允许有错误的分类。

SMO算法:

坐标上升算法:

这个算法的迭代次数比较多,但在某时某情况下如果W(a1,,,am)中的某个参数求最优值的代价非常小,那么内层循环将会非常快。

SMO:

如果像svm那样只对一个α求解,同时固定其他的α。由等式(19)得到

即α也就固定了。SMO同时对两个α求解,随即得到:

此式是一个一元二次函数,易得到α1。

Andrew Ng让在John Platt的论文里寻找下面两个问题的答案:

SMO算法:
由等式
可知问题转化为求α的问题,如下:
此等式中各个参数的求解如下:











ps:不知不觉好久不写笔记。





















  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值