参考文章链接:http://www.cnblogs.com/liuwu265/p/4690486.html
Bagging和Boosting都是将弱分类器组装成强分类器的方法
备注:弱分类器也是有一定限制的起码分类效果要比随机分类效果好,即准确率要大于50%,
否则即使组装成多个分类器的组合效果也不会很好)
1、Bagging 算法
A)设原始数据数量为K,从K个训练样本中随机抽取k个数据,再从k个数据中抽取一定比例的特征形成一棵树,每次抽取的数据集都是原始数据集中的一部分,并且特征也是数据集中的部分特征(样本的抽取和特征的抽取两部分)
B)对分类问题:采用多数投票发;对回归问题,计算上述模型的均值作为最后的结果。(所有模型的重要性相同)
2、Boosting
其主要思想是将弱分类器组装成一个强分类器。
1)在每一轮如何改变训练数据的权值或概率分布?
通过提高那些在前一轮被弱分类器分错样例的权值,减小前一轮分对样