** 如有错误,感谢指正**
如有错误,感谢指正,请私信博主,有辛苦红包,拜“一字之师”。
请根据目录寻找自己需要的段落
导语:本博客为个人整理MATLAB学习记录帖,如有错误,感谢指正。系统学习,欢迎持续关注,后续陆陆续续更新
Java 交流qq群 383245788
序
本文旨在记录个人数模美赛备赛经历。转载请注明出处。
Ensemble Learning
集成学习原理图
集成学习法的优点:
1.将多个分类方法聚集在-起,以提高分类的准确率。(这些算法可以是不同的算法,也可以是相同的算法。)
2.集成学习法由训练数据构建一-组基分类器, 然后通过对每个基分类器的预测进行投票来进行分类
3.严格来说,集成学习并不算是一 种分类器,而是一 -种分类器结合的方法。
4.通常一个集成分类器的分类性能会好于单个分类器
5.如果把单个分类器比作一个决策者的话 ,集成学习的方法就相当于多个决策者共同进行同一项决策。
集成学习的两大算法:
Boosting
bagging与随机森林
Bagging(装袋法):每个模型相互独立,相互平行。然后对其预测结果进行平均或者多数表决的原则来决定集成评估器的结果
Boosting(提升法):模型循序渐进,依次增强。基评估器是相关的,是按顺序一-构建的, 其核心思想是结合弱评估器的力量一次次对难以评估的样本进行预测,从而构成一个强评估器。
Bootstrap Sampling
在现实任务中,个体学习器是为解决同一个问题训练出来的,它们之间是不可能完全独立的,虽然“独立"在现实任务中无法做到,但可以设法使基学习器尽可能的具有较大的差异,由此我们引入了自助采样法(Bootstrap sampling)
步骤
1.在原有的样本中通过重抽样抽取-定数量(比如100) 的新样本,重抽样(Re-sample) 的意思就是有放回的抽取,即一个数据有可以被重复抽取超过一次。
2.基于产生的新样本,计算我们需要估计的统计量。
3.重复上述步骤n次(一般是n> 1000次)