机器学习技法笔记2:SVM的对偶形式

2 SVM的对偶形式

前一篇见:机器学习技法笔记1: 线性SVM

2-1 SVM对偶形式的目的

1、上次学习过
这里写图片描述
上一节课我们说过,使用SVM得到large-margin,减少了有效的VC Dimension,限制了模型复杂度;另一方面,使用特征转换,目的是让模型更 复杂,减小Ein。所以说,非线性SVM是把这两者目的结合起来,平衡这两者 的关系。那么,特征转换下,求解QP问题在z域中的维度设为d~+1,如果 模型越复杂,则d~+1越大,相应求解这个QP问题也变得很困难。当d^无 限大的时候,问题将会变得难以求解,那么有没有什么办法可以解决这个问题 呢?
这里写图片描述
比较一下,我们上一节课所讲的Original SVM二次规划问题的变量个数是 d~+1,有N个限制条件;本节课,我们把问题转化为对偶问题(Equivalent SVM),同样是二次规划,只不过变量个数变成N个,有N+1个限制条件
这种对偶SVM的好处就是问题只跟N有关,与d~无关,这样就不存在上文 提到的当d~无限大时难以求解的情况。
如何把问题转化为对偶问题(Equivalent SVM),其中的数学推导非常复 杂,本文不做详细数学论证,但是会从概念和原理上进行简单的推导。
这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述
也就证明了,这种min(max…)的形式和原始的有条件问题是等价的
这里写图片描述

2-2 拉格朗日SVM对偶形式

1、 对于一个任意的a’,一定小于最大的L(b,w,a),即:
这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述
那么,上述不等式关系就变成强对偶关系,≥变成=,即一定存在满足条件的解 (b,w,α),使等式左边和右边都成立,SVM满足条件,SVM的解就转化为右边的形式。
这里写图片描述
这里写图片描述
4、
这里写图片描述
之后将会考虑采用最优的a来求解(b,w)
这里写图片描述

2-3 解决对偶问题

这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述

2-4 对偶形式背后SVM的含义

1、回忆一下, 位于分类线边界的胖胖的点使我们需要的点,其他的是不需要的
这里写图片描述
2、
这里写图片描述
这里写图片描述
这里写图片描述
4、 那么,在前三讲中,我们采用了两种表示SVM的方法。
这里写图片描述
5、
那么我们做完了吗? 我们原来的目标是解决问题,但是不依赖于d~,因为可能维数过大不好求 解。
这里写图片描述
这里写图片描述

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值