- Bagging:最典型的就是随机森林(并行构造树运算取平均)
- 随机:必须让每棵树都呈现出一个差异化,也就是随机--‘数据采样随机(有放回的抽样)、特征选择随机’
- 森林:很多个决策树并行放在一起
- Boosting:(串行构造)从弱学习器开始加强
- AdaBoost:会根据前一次的分类效果调整数据权重(如果某一个数据在这一次分错了,那么子按下一次就给他更大的权重,并且每个分类器根据自身的准确性来确定各自的权重,最后再合体)
- Xgboost:
- Stacking:聚合各种各样的分类器(堆叠各类分类器)
- 一阶段得出各自结果
- 二阶段拿前一阶段的结果进行训练
后续会更新相关demo