机器学习
文章平均质量分 50
shitaixiaoniu
这个作者很懒,什么都没留下…
展开
-
基本概念-随时更新
1 期望 单变量: P(x)是离散概率分布函数,自变量x取值{x1,x2,..,xn}原创 2014-07-17 18:51:34 · 403 阅读 · 0 评论 -
xgboost原理
这篇文章主要参考了陈天奇的14年的slice[1],算是一个中文翻译+自我理解的笔记吧。1.第一部分:有监督学习包括三部分:模型、参数和优化目标。此部分略过不提。2.第二部分:boosted tree1. 回归树(base learner)base learner是回归树,其决策规则与决策树(decision tree)类似,但是用来预测实数值,即每一个叶结点是一个实数,而不是如决策树那样的类标签。原创 2016-11-15 18:14:26 · 4158 阅读 · 0 评论 -
简单算法的常用网站
1.http://www.robots.ox.ac.uk/~vgg/software/ 2.http://lear.inrialpes.fr/~verbeek/software.php 3.http://people.kyb.tuebingen.mpg.de/pgehler/code/index.html 4.http://shenzi.cs.uct.ac.za/~honspro原创 2014-10-23 17:11:45 · 368 阅读 · 0 评论 -
概率语言模型及其变形系列(1)-PLSA及EM算法
http://blog.csdn.net/yangliuy/article/details/8330640转载 2014-10-23 10:40:25 · 553 阅读 · 0 评论 -
EM 算法
http://www.cnblogs.com/jerrylead/archive/2011/04/06/2006936.html转载 2014-08-07 21:39:18 · 369 阅读 · 0 评论 -
参数估计
主要学习了两类参数估计的方法,最大原创 2014-07-22 10:07:01 · 478 阅读 · 0 评论 -
对Naive Bayesian classification 的理解
转载地址: http://www.cnblogs.com/leoo2sk/archive/2010/09/17/naive-bayesian-classifier.html转载 2014-07-02 10:25:08 · 597 阅读 · 0 评论 -
对linear classifier 的整体理解
文本分类将原创 2014-06-27 15:48:35 · 1405 阅读 · 0 评论 -
对决策树的理解 id3
详见 http://www.cnblogs.com/lufangtao/archive/2013/05/30/3103588.html转载 2014-06-26 15:53:55 · 454 阅读 · 0 评论 -
gbdt-源码分析
1. 源码分析源码阅读的是Python著名的库sklearn里的代码。sklearn里gbdt(sklearn/ensemble/gradient_boosting.py)相关的类有 GradientBoostingRegressor和GradientBoostingClassifier,共同的父类是BaseGradientBoosting.boost的基本实现在BaseGradientBoosti原创 2016-11-14 17:25:32 · 1588 阅读 · 0 评论