Bagging, Random Forests, Boosting
Bagging
前一篇的决策树模型,有一个问题:预测结果的方差会很大,可以通过 bagging的方法来降低方差。其主要思想如下:
用自助法(bootstrap)的方式得到 B B B 个不同的训练数据集,设第 b b b 个数据集上的得到的预测结果为 f ^ ∗ b ( x ) \hat{f}^{*b}(x) f^∗b(x),对于回归问题,最终的预测结果可表示为
f ^ bag ( x ) = 1 B ∑ b = 1 B f ^ ∗ b ( x ) \hat{f}_{\text{bag}}(x)=\frac{1}{B}\sum_{b=1}^B\hat{f}^{*b}(x) f^bag(x)=B1b=1∑Bf^