![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
MathTheory Algorithm
li4850729
这个作者很懒,什么都没留下…
展开
-
为何需要核函数
【转】:http://www.blogjava.net/zhenandaci/archive/2009/03/06/258288.html注:评论也是值得看的生存?还是毁灭?——哈姆雷特 可分?还是不可分?——支持向量机 之前一直在讨论的线性分类器,器如其名(汗,这是什么说法啊),只能对线性可分的样本做处理。如果提供的样本线性不可分,结果很简单,线性分类器的求解转载 2015-09-01 22:29:34 · 1179 阅读 · 0 评论 -
支持向量机:Duality
【转】:http://blog.pluskid.org/?p=702本文是“支持向量机系列”的番外篇(1),参见本系列的其他文章。在之前关于 support vector 的推导中,我们提到了 dual ,这里再来补充一点相关的知识。这套理论不仅适用于 SVM 的优化问题,而是对于所有带约束的优化问题都适用的,是优化理论中的一个重要部分。简单来说,对于任意一个带约束的优化都可以写成这样转载 2015-08-23 15:10:10 · 956 阅读 · 0 评论 -
拉格朗日乘子法和KKT条件
【转】:http://www.cnblogs.com/zhangchaoyang/articles/2726873.html 拉格朗日乘子法(Lagrange Multiplier)和KKT(Karush-Kuhn-Tucker)条件是求解约束优化问题的重要方法,在有等式约束时使用拉格朗日乘子法,在有不等约束时使用KKT条件。前提是:只有当目标函数为凸函数时,使用这两种方法才保证求得转载 2015-08-23 14:52:10 · 693 阅读 · 0 评论 -
cnblogs_tornadomeet博客导航
【转】:http://www.cnblogs.com/tornadomeet/archive/2012/06/24/2560261.htmlDeep Learning学习笔记:Deep learning:五十一(CNN的反向求导及练习)Deep learning:五十(Deconvolution Network简单理解)Deep learning转载 2015-08-24 17:19:58 · 732 阅读 · 0 评论