Machine Learning
随煜而安
Deep Learning?不如Keep Learning ~ 聚焦CV,关注各类算法相关问题
展开
-
浅谈 Adaboost 算法
注:本文全文引用自http://blog.csdn.net/carson2005/article/details/41444289当然作者也是转载的,原文是http://blog.csdn.net/haidao2009/article/details/7514787写的很好所以转载过来以便之后再次翻阅。一 Boosting 算法的起源boost 算法系列转载 2015-05-02 12:34:10 · 584 阅读 · 0 评论 -
机器学习(Machine Learning)&深度学习(Deep Learning)资料
本文全文引用自点击打开链接,作者还在不断更新。先转载下来,慢慢学习《Brief History of Machine Learning》介绍:这是一篇介绍机器学习历史的文章,介绍很全面,从感知机、神经网络、决策树、SVM、Adaboost到随机森林、Deep Learning.《Deep Learning in Neural Networks: An Overv转载 2015-05-02 11:07:40 · 5639 阅读 · 1 评论 -
K 近邻算法(KNN)与KD 树实现
本文详细介绍了KNN分类算法的原理。以及如何使用KD树实现KNN算法,包括KD树的构建与K近邻查找最后给出了KD树的C#实现源码原创 2016-04-05 11:40:58 · 10774 阅读 · 4 评论 -
砥志研思SVM(一) 最优间隔分类器问题(上):硬间隔SVM
本文从理论上详细介绍了硬间隔的最优间隔分类器,即硬间隔SVM。后续文章将会介绍软间隔SVM及其实现。原创 2016-08-31 20:58:11 · 1465 阅读 · 0 评论 -
砥志研思SVM(二) 拉格朗日乘子法与KKT条件
本文介绍了拉格朗日乘子法和KKT条件的简单概念,为下一篇文章推导软间隔SVM做铺垫原创 2016-08-31 21:13:28 · 602 阅读 · 0 评论 -
砥志研思SVM(三) 最优间隔分类器问题(下):软间隔SVM
在先前介绍的硬间隔SVM基础上,本文将硬间隔推广到软间隔,从而将问题能够求解线性可分数据集提升为能够求解非线性可分数据集,从而推导出著名的支持向量机SVM。原创 2016-08-31 21:22:35 · 1195 阅读 · 0 评论 -
砥志研思SVM(四) 序列最小最优化算法(SMO)论文翻译
本文给出了Platt为训练支持向量机SVM提出的SMO算法原文的详细翻译,对于文中作者描述不清的地方,通过绿色字体给出了简单注释和证明。原创 2016-09-02 21:45:29 · 1120 阅读 · 4 评论