boosting——Adaboost算法基本思想
Adaboost是最有代表性的boosting算法,它主要的思想就是根据上一次的分类结果自适应地调整下一次分类的权重,具体方法如下:
设上一次的分类结果错误率为:
ε=未正确分类的样本数样本总数 ε = 未 正 确 分 类 的 样 本 数 样 本 总 数
故该次训练所生成的基分类器在最终分类器中的权重为:
αm=12ln(1−εε) α m = 1 2 l n ( 1 − ε ε )
根据这次分类的结果更新下一次分类的样本的权重:
Dm+1=(ωm+1,1,ω
机器学习实战之利用Adaboost元算法提高分类性能
最新推荐文章于 2023-01-06 11:11:10 发布