1.bagging
- 特点:
数据有放回采样
分类最终投票
回归最终平均 - 优点
可并行,提升泛化能力 - 缺点
可能欠拟合
https://www.cnblogs.com/hugechuanqi/p/10554156.html
2.随机森林
- 特点:
数据有放回采样
增加了随机选择特征
分类最终投票
回归最终平均 - 优点
可并行,提升泛化能力 - 缺点
可能欠拟合
https://www.cnblogs.com/hugechuanqi/p/10554156.html
3.bagging和boost算法区别
- bagging
基本学习器之间不存在强依赖关系、可同时生成的并行化方法,即Bagging方法。 - boost
基本学习器之间存在强依赖关系、必须串行生成的序列化方法,即Boosting提升方法。是一种加法模型,包括adboost和gbdt等。
https://www.cnblogs.com/hugechuanqi/p/10554156.html
https://blog.csdn.net/Android_chunhui/article/details/80676471
4.Adboost算法
Boosting算法的工作机制是首先从训练集用初始权重训练出一个弱学习器1,根据弱学习的学习误差率表现来更新训练样本的权重,使得之前弱学习器1学习误差率高的训练样本点的权重变高,使得这些误差率高的点在后面的弱学习器2中得到更多的重视。然后基于调整权重后的训练集来训练弱学习器2.,如此重复进行,直到弱学习器数达到事先指定的数目T,最终将这T个弱学习器通过集合策略进行整合,得到最终的强学习器。
https://www.cnblogs.com/pinard/p/6133937.html
5.GBDT
https://blog.csdn.net/qq_28031525/article/details/70207918
6.XGboost
https://www.zhihu.com/question/41354392
http://wepon.me/files/gbdt.pdf