机器学习算法
爱跑步的george
北京邮电大学
展开
-
机器学习算法1:AdaBoost
菜鸟最近开始学习machine learning。发现adaboost 挺有趣,就把自己的一些思考写下来。 主要参考了http://stblog.baidu-tech.com/?p=19,其实说抄也不为过,但是我添加了一些我认为有意思的东西,所以我还是把它贴出来了,呵呵。 —图片进行了修复 一 Boosting 算法的起源 boost 算法系列的起源来自于PAC Learnability(...原创 2018-06-06 09:24:52 · 250 阅读 · 0 评论 -
机器学习算法推导基本知识:矩阵求导公式
1、 2、 3、 4、 5、原创 2018-06-15 08:57:21 · 5046 阅读 · 0 评论 -
吴恩达---中文版Machine Learning Yearning
https://xiaqunfeng.gitbooks.io/machine-learning-yearning/content/chapter42.html?q=原创 2018-10-29 20:28:22 · 235 阅读 · 0 评论 -
手推Logistic回归
(很多讲逻辑回归的文章都没有给出详细的推导,只是列出最后的计算公式,今天在网上看到一篇解释得非常详细的文章,赶紧转载一下: 【机器学习笔记1】Logistic回归总结(http://blog.csdn.net/dongtingzhizi/article/details/15962797) 作者说"未经允许,不得转载",我这里先冒...转载 2019-03-14 21:38:35 · 446 阅读 · 0 评论 -
手推——朴素贝叶斯
如果你对理论推导过程不感兴趣,可以直接逃到三种常用模型及编码实现部分,但我建议你还是看看理论基础部分。 另外,本文的所有代码都可以github获取 1. 朴素贝叶斯的理论基础 朴素贝叶斯算法是基于贝叶斯定理与特征条件独立假设的分类方法。 这里提到的贝叶斯定理、特征条件独立假设就是朴素贝叶斯的两个重要的理论基础。 1.1 贝叶斯定理 先看什么是条件概率。 P(A|B)表示事件B已经发生的前...转载 2019-03-12 22:27:55 · 482 阅读 · 0 评论 -
牛顿法和梯度下降法的对比和推理
牛顿法和梯度下降法的学习 牛顿法和梯度下降法的差别 牛顿法:二次逼近 梯度下降法:一阶逼近 牛顿法:对局部凸的函数找到极小值,对局部凹的函数找到极大值,对不凹不凸的函数可能找到鞍点。 梯度下降法:一般不会找到最大值,但同样可能会找到鞍点。 在初始值合理的条件下, 牛顿法的收敛速度>梯度下降法的收敛速度 牛顿法的计算难度更大(因为需要估计二阶导数) 泰勒展开式:https://...原创 2019-04-18 15:11:03 · 345 阅读 · 0 评论