AdaBoost自适应增强,一直听说这个方法,觉得很高端,大半夜的记一下!
自适应增强的思想是用多个弱分类器提升出一个强的分类器:强可学习和弱可学习是等价的!
步骤:
首先,你有一批数据<Xi, Yi>作为训练集
其次,你有一个学习分类模型的方法,而且你这个学习方法应该用到训练集中每个样本的权重,因为自适应增强方法就是通过不断增大上一轮分错样本的权重同时降低分对样本的权重的方法来不断改变对模型的学习的。如果你模型的学习跟样本的权重没有关系那自适应增强就完了!
再次,根据你当前学习到的一个模型G,根据它分类误差率(就是它分错的那些样本对应的权重之和),求出它的一个系数,这个系数代表了该次学到的这个模型G在最终的模型中所占的比重。最终的模型是你多次学到的多个模型的线性作何,对应每个系数就是这里学到的系数,注意所有的系数的和并不等于1。
具体的权重更新公式和系数计算公式参考李航《统计学习方法》