目录
2、Gradient Boosting(GBT/GBDT/GBRT)梯度提升迭代决策树
1、 Adaboost 自适应提升
离散化
具体推导过程参考:
数据挖掘领域十大经典算法之—AdaBoost算法(超详细附代码)
可参考链接:Adaboost入门教程——最通俗易懂的原理介绍(图文实例)
2、Gradient Boosting(GBT/GBDT/GBRT)梯度提升迭代决策树
参考链接:机器不学习:机器学习时代三大神器GBDT\XGBoost\LightGBM
Stacking类似神经网络,区别:stacking第一层不限制模型的算法,神经网络限定为线性回归或者逻辑回归。
总结