Adaboost是一种迭代算法,其核心思想是针对同一个训练集训练不同的分类器(弱分类器),然后把这些弱分类器集合起来,构成一个更强的最终分类器(强分类器)。
Adaboost算法的具体步骤如下:
1给定训练样本集S,T为训练的最大循环次数;
2初始化样本权重为1/n,即为训练样本的初始概率分布
3第一次迭代:
(1)在当前权重下,训练弱分类器
(2)计算弱分类器的错误率
(3)选取合适阈值,使得误差最小;
(4)更新样本权重
经过T次循环后,得到T个弱分类器,。将弱分类器联合起来,使用加权的投票机制代替平均投票机制。让分类效果好的弱分类器具有较大的权重,而分类效果差的分类器具有较小的权重。最终得到强分类器。
数据挖掘之adaboost算法
最新推荐文章于 2022-06-09 12:26:38 发布