基本概念:adaboost自适应增强学习,重点有两个:1.加大前一个被分错样本的权重并用来训练下一个分类器。2.每次迭代加入一个新的弱分类器。
基本步骤:1.初始化样本的权值分布1/N;
2.训练弱分类器hi,
3.各个弱分类器的训练结束后,加大误差率小的弱分类器的权重。
详细细节
1.弱分类器的生成是基于haar特征的,有opencv自己从大量特征中生成。
2.基本分类器H的误差率是被样本权重加权了的,H的权重又是根据自己的误差来的,每一次迭代并不会修改上一个基本分类器的权重。
3.弱分类器在最终分类器中占的权重是根据误差率有一个公式算出来的。
4.样本权重D 更新依赖于a(基本分类器的权重),a又依赖于误差e,又根据D计算e。可以直接获得D为样本权重,zt为归一化常数。
5.
6.基本分类器是从已知所有弱分类器中每次被选出来的误差最小的一个弱分类器。
7.对于每次迭代加入一个新的弱分类器是指加入一个基本分类器到强分类器中,而不是扩展haar弱分类器库。
8.理论上迭代次数和基本分类器个数相同。