文章目录
如果这篇文章对你有一点小小的帮助,请给个关注,点个赞喔,我会非常开心的~
0. 前言
Boosting:先训练一个基学习器,然后根据学习器的表现对样本分布进行调整,给予做错的样本更多的关注,再基于调整后的分布训练下一个基学习器,如此重复达到指定的学习器数目,将这些学习器集成
Boosting主要关注降低偏差,因此能基于泛化性能弱的学习器构建出很强的集成。
AdaBoost是集成学习Boosting的代表算法。
1. AdaBoost算法
AdaBoost 算法流程可描述如下:
- 对每个训练样本设定相等的权重
- 训练一个加权错误率最低的最佳弱分类器,加权错误率为 ε t \varepsilon_t εt
- 根据加权错误率,计算弱分类器的分类器权重 α t = 1 2 ln ( 1 − ε t ε t ) \alpha_t=\frac{1}{2}\ln(\frac{1-\varepsilon_t}{\varepsilon_t}) αt=21ln(