1、Adaboost算法
把训练集通过弱可学习,得到一系列的弱分类器。然后,把弱分类器,通过加权处理,组合成一个强分类器。
在提升方法中,弱可学习和强可学习是等价的。
使用分差误差率更新模型。
这里,
α
\alpha
α代表组合系数,
α k ← 1 2 ln 1 − E k E k \alpha_{k} \leftarrow \frac{1}{2} \ln \frac{1-E_{k}}{E_{k}} αk←21lnEk1−Ek
2、前向分步算法
每一步只学习一个基函数及系数。
3、提升树
以决策树为基函数的前向分步算法。
4、梯度下降
利用损失函数的负梯度作为残差近似值,拟合出回归树。
参考: