集成学习
三大集成方法:
- Bagging(同质分类器,并行训练,最终对多个弱学习器的结果进行投票或求均值的方式作为最终预测结果)
- Boosting(同质分类器,顺序训练,后续学习器着重解决前者预测不准的样本,将多个弱学习器加权求和组合成一个强学习器,强学习器的预测结果作为最终预测结果)
- Stacking(异质分类器,多个弱分类器并行训练,然后最后一层加一个神经网络对弱分类器的结果进行总结,输出一个最终预测结果)
Bagging
分类问题:投票法(过半数法、相对多数、阈值)
回归问题:均值法(算术平均、加权平均)
典型例子:决策森林
Boosting
Xgboost和Boosting-知乎
典型算法:AdaBoost、AdaBoost.M1、AdaBoost.M2、GBDT/GBRT、Adaboost、XGBoost、LightGBM