SVM支持向量机二(Lagrange Duality)

原创 2013年12月02日 11:13:04

SVM支持向量机二(Lagrange Duality)



上一节我们得到了结论就是 Maximum margin 的化简结论:
然而我们应该怎么解决他呢,我们可以把s.t.的约束表示为gi(w)<=0,可以的把,自己看看就会了?这里就要用到 Lagrange Duality 数学知识了,不急我们下面先抛开上面的结论,至讲解一些数学知识:

1.Lagrange数学方法
2.Duality(对偶性问题)转换过程(必须满足KKT条件)
3.满足KKT条件转化 min max L()到 max min L()
4.为什么叫做支持向量机(Support Vector Machine)
--------------------------------------------------------------------------------------------------------------
1.Lagrange数学方法

(1)Lagrange去掉等式约束 的情况:
最大化问题带等式约束 g(X)==0 的情况:处理方法就是给约束乘以一个系数加到原命题上,然后求导得出结果:下面回顾一下本科阶段做的简单例题加深印象吧!

(2)Lagrange去掉不等式约束 的情况:

这里是不等式约束的情况,大家千万注意我画的两个红圆圈,这个对以后判断 支持向量 的点很重要,那是你就明白为什么叫支持向量机(Support Vector Machine)了

(3)Lagrange同时去掉等式约束和不等式约束 的情况:

至此Lagrange数学知识介绍完毕了!下面再进一步看看,就可以解决我们开头提出的问题了
---------------------------------------------------------------------------------------------------------------------------------------------

2.Duality(对偶性问题)转换过程(必须满足KKT条件)



我们可以看到,在满足约束条件的情况下 max L()== f(w),而我们的原问题是 min f(w),所以问题变成了:
minw max(w,a,b)L(w,a,b),问题又来了,如果我们按照 先求 max L时问题又还原了,所以我们要想办法,更改
min max L的求值顺序,这就要转化为: Duality(对偶性问题):


相信上面的不等式很容易理解,例如班级当中 个头最矮的一批中个头最高的 肯定小于等于 班级中个头最高的一批中个头最矮的,是不是?在此我查阅了资料如下:

极小极大值(min max)思想是指

     在某一博弈中如果一个局中人根据极小极大值理论的标准来选择他可以采取的战略,那么就是说对他的每一种策略,他首先考虑他采取该策略后能收到的最低支付,然后他在所有最低支付中选择能得到最大支付值的那个战略。极小极大值理论表明二人零和有限纯战略(或连续纯战略和连续纯凸支付函数)的博弈是确定的(即有解)。

证明:
   
     第一个有限纯战略的二人机会与技巧博弈的极小极大值定理是由冯.诺依曼于1928年发表的论文“关于伙伴游戏理论”(Zur Theorie der Gesellschaftsspiele)中给出的[7],结果表明所有的双人零和博弈都是有一个极小极大值解,而这个证明已经出现在他于1926年12月7日提交给了哥廷根数学会的一篇论文中了。冯.诺依曼1928年的这个证明是复杂的,其中既有初等的概率,也有拓扑学的概念,而且不易为读者所读懂。但这个证明是有效的。在一个角注中,冯.诺依曼注明:“当这篇文章快最后完成时,我得知了E波莱尔的工作,波莱尔明确用公式表示了一个对称的二人博弈的双线性形式问题,并且说找不到MaxMin<MinMax的例子。我们以上的结果则回答了他的疑问”。而且冯.诺依曼把他的结果寄给了波莱尔,波莱尔又于1928年6月把它交给了法国科学院。

第一个初等的(非拓朴)的极小极大值原理的证明是波莱尔的学生威莱(Jean Ville)于1938年给出的,收录在波莱尔丛书中[8],这个证明用到了凸性的论证和支撑超平面的概念。同年威莱对连续纯战略的情况作出了第一个极小极大值原理的证明。而冯`诺依曼和摩根斯坦1944年出版的书中对极小极大值的证明正是以Ville1938年的证明为基础的,而不是以冯.诺伊曼1928年的证明为基穿

1944年冯.诺依曼和奥地利经济学家奥.摩根斯坦合作《博弈论与经济行为》(Theory of games and economic behavior)一书的出版,标志着博弈论的创立。此后以卢密斯(Loomis,美国数学家)的完全代数方法的极小极大值定理的证明为开端,在数学界发起了一场进一步证明极小极大值定理的运动,其中,以赫尔曼.外尔(Hermann Weyl,美国数学家)1950年给出的一个更简明的极小极大值定理的初等证明为高潮,这个证明依据了他早期关于凸多面体的工作。所有的这些证明大致可以分为两个类别:一个类别是以不动点理论或迭代程序为基础,另一类别是以凸集理论为基穿

综上所述,尽管瓦德哥锐的贡献是孤立的,被人们忽视了,但最先发现极小极大值混合策略解的荣誉应归功于他。而属于波莱尔的荣誉应有:第一个用现代公式表示混合策略,首次给出了找到具有3个或5个纯策略的博弈的极小极大值解的一般方法。冯.诺依曼则应得到第一个证明极小极大值定理的荣誉。而第一个用初等方法证明极小极大值定理的荣誉应属于威莱,而且他还把这一原理推广到了具有无限多的连续策略的博弈例子中。

那么 min max 和 max min 何时相等呢?请看下面KKT条件!!!

3.满足KKT条件转化 min max L()到 max min L()


解释:

convex的定义:凸形曲线-----即g(w)是直线(凸曲线特例,还是凸曲线),高维就是凸曲线了,
affine(仿射变换)的定义:若变换S∶Rn→Rn,S(x)=T(x)+a,T是非奇异线性变换,a∈Rn,则变换S称为仿射变换
也就是非奇异线性变换加一个平移,h(w)是满足的

其实就是满足KKT条件,下面我们来看一下KKT条件什么样子就行了:

下面加深理解哈!
我们开头的

其中约束条件s.t.可以表示成: gi(w)= 1 -  yi*(wT*xi+ b)<= 0 对吧!等于0的情况正好落在 那两条虚线上,就是支持向量的点,这时候 对应的 ai != 0 .

这个时候我们的问题就转化成了 

到此为止,我们的原问题转化为了 带红色边框的 max min L问题了,下面我们就要分步去求解 :
第一步:求 minw L(w,a,b)
第二步:求 maxL(w,a,b)

第一步:求 minw L(w,a,b)

我们可以看出 L(w,b,a)是一个关于w的二次凸函数,所以有最小值,求导即可


经过对 w 和 b 求偏导之后就得到上图的’‘ *号等式 ‘’回代到 L(w,a,b)得到:
这个时候第一步就解决了,最小值问题就解决了。
具体推导公式为:



得到:



4.为什么叫做支持向量机(Support Vector Machine)









第二步:求 maxL(w,a,b)
至此我们很有技巧的地方就是,w,b 被化解完了,只剩下 ai 等参数了,而 w可以用 ai 表示出来:

现在问题就是我们该如何求解 alpha 呢? alpha如何更新呢? w更新可以有alpha表示更新,还有就是为什么这样更新可以是 W(alphas)值逐渐增大呢??

在这个问题之前我们要先进行软间隔处理哈:

参考: 

SVM支持向量机三(软间隔处理规则化和不可分情况)


关于这个问题,我们可以有两种方法求解

1. SVM求解之坐标上升算法(Coordinate Ascent)
可以参考我另一篇文章:SVM求解之坐标上升算法(Coordinate Ascent)

2. SVM之SMO算法
可以参考我另一篇文章SVM支持向量机四(SMO算法)

学习笔记——支持向量机svm(2)对偶问题

回顾 上一篇已经讲到了将找一个最好的分割超平面转化为上面的公式并且用二次规划来求解的问题。但是还是存在一个问题,这个算法维度(w的维度)不是跟数据量相关的,而是跟数据内在的vc维度有关的,所以当数据...

SVM- Lagrange duality(三)

SVM(3)- Lagrange duality Referenc: Pluskid系列博客, Liqizhou 《Pattern recognition and machine learn...
  • soidnhp
  • soidnhp
  • 2013年12月19日 10:10
  • 2155

支持向量机笔记(二) Lagrange duality

拉格朗日对偶 因为下一讲要用到这方面的知识,所以先在这里学习下,它其实就是我们本科阶段所学的拉格朗日乘数法: 以上来自百度百科。只不过在这里我们是多维的。首先我们的优化问题如下:...

简易解说拉格朗日对偶(Lagrange duality)

请尊重原创知识,本人非常愿意与大家分享 转载请注明出处:http://www.cnblogs.com/90zeng/ 作者:博客园-太白路上的小混混 引言:尝试用最简单易懂的描述解释清楚机器...

拉格朗日对偶问题(Lagrange duality)

介绍拉格朗日对偶中的原始问题、对偶问题以及原始问题与对偶问题的关系

支持向量机(SVM)(二)-- 拉格朗日对偶(Lagrange duality)

简介: 1、在之前我们把要寻找最优的分割超平面的问题转化为带有一系列不等式约束的优化问题。这个最优化问题被称作原问题。我们不会直接解它,而是把它转化为对偶问题进行解决。 2、为了使问题变得易于处理,我...

SVM支持向量机四(SMO算法)

SVM支持向量机四-SMO(Sequential minimal optimization)算法 SMO算法由Microsoft Research的John C. Platt在1998年提出,并成...

机器学习算法与Python实践之(四)支持向量机(SVM)实现

机器学习算法与Python实践之(四)支持向量机(SVM)实现zouxy09@qq.comhttp://blog.csdn.net/zouxy09        机器学习算法与Python实践这个系列...
  • zouxy09
  • zouxy09
  • 2013年12月13日 00:12
  • 100230

支持向量机笔记(二) Lagrange duality拉格朗日对偶

原文:http://blog.csdn.net/csy463168656/article/details/8213992
  • roypi
  • roypi
  • 2014年06月06日 10:07
  • 664

SVM(支持向量机)中拉格朗日乘子法(Lagrange Multiplier) 和KKT条件

原文地址:http://blog.csdn.net/xianlingmao/article/details/7919597 在求取有约束条件的优化问题时,拉格朗日乘子法(Lagrange Mul...
内容举报
返回顶部
收藏助手
不良信息举报
您举报文章:SVM支持向量机二(Lagrange Duality)
举报原因:
原因补充:

(最多只允许输入30个字)