Adaboost由于其分类效果好,算法简单,还有其可靠的理论基础,深受大家欢迎。
1.用来解决什么问题:二分类模型。
2.如何解决:弱学习器的叠加生成强学习器
3.判断标准:分类误差率
4.调整的是什么?基本分类器的权重
5.步骤:N
6.总结:并行
其实这些模型难于理解在于看到公式表达就头晕,所以针对每个字符的意义,我做了详细的说明,这样一看就明白了。
提升方式基本思想:其实跟RNN有点像,思想上都是由前一个模型的值来影响后一个模型的形成。只是RNN更多的是为了解决共享特征的问题,而这个是为了解决分类问题。
模型有两种模式,一个叫序列,一个叫并行。
序列:下一个模型的形成依赖于上一个模型的方法。RNN(参看RNN那篇)为了解决共享特征的问题,也是序列性的。
并行:同时学习很多模型。
权重分两个,一个整体的,一个是在单个样本点上的表现效果。
Adaboost步骤:
- 初始化权重
2.计算每个分类器
a)基本分类器计算
b)每一个分类误差率计算
c)每个分类器的系数
d)更新训练数据集的权值分布
3.构建基本分类器的线性组合
4.得最终分类器