In the forest of trees made by Adaboost, the trees are usually just a node and two leafs.
在Adaboost算法生成的Tree的集合中,tree只有一个node和两个leaf组成
Stump由于只考虑一个feature, 在作出预测方面并不准确 (Stump can only use one variable to make a decision), 所以Stump 又被称为weaker learner.
在随机森林中,每个生成的tree对最终结果都有相同的投票权,但对于AdaBoost,每个stump对最终Classification 的投票权不一样。更大的Stump对最终的classification的结果影响更大
在Adaboost算法中,Stump生成的顺序很重要,每一个Stump的产生都会受到前一个Stump的影响。
总的来说, Adaboost有三个核心要点
- 有多个Stump 构成 (Weaker learner)
- 对个Stump对最终Classification 的影响不同,有些Stump的影响大,有些Stump的影响小
- 每个Stump的生成都考虑了前一个Stump的错误(第一个Stump除外)
Link: