机器学习
Blateyang
硕士毕业于华南理工大学,目前主要从事Web开发方面的工作,平时很少看留言,有事请私信
展开
-
Adaboost算法的原理与推导
Adaboost 算法的原理与推导转载 2017-03-26 17:19:40 · 502 阅读 · 0 评论 -
集成方法Bagging和boosting比较
在看《机器学习实战》的第7章“AdaBoost元算法提高分类性能”时,看到了bagging算法和boosting算法,这两类算法很类似,都属于集成方法中基于同一种分类器多个不同实例的算法,但又有一些不同(主要在训练实例的构建上和分类器的训练方式上),为了加深自己的理解,对这两类算法进行简单的介绍和比较。原创 2017-10-27 18:01:47 · 1048 阅读 · 0 评论 -
用费曼技巧理解概念之Bagging方法
关于费曼技巧的介绍可以参见这篇博客 Bagging方法是集成方法的一种代表方法。集成方法,简单来说,就是模型平均,通过训练多个不同的模型,然后将这多个模型的预测结果综合考虑来预测输出,以降低模型的泛化误差。而Bagging方法的特点在于它不用改变算法,而只需对训练数据集进行可重复的随机采样来构造多个相同规模的训练数据子集,从而训练得到多个不同的模型。下图简要说明了Bagging方法的工作原理...原创 2018-02-15 15:47:17 · 821 阅读 · 0 评论 -
牛顿法与拟牛顿法学习笔记(一)牛顿法
看到一篇介绍用于非线性优化的牛顿法与拟牛顿法(L-FBGS)的数学原理的优秀博文,感谢作者,特此转载!作者: peghoty 出处: http://blog.csdn.net/itplus/article/details/21896453 机器学习算法中经常碰到非线性优化问题,如 Sparse Filteri...转载 2018-03-22 11:35:40 · 484 阅读 · 0 评论