集成学习(Ensemble Learning)

本文介绍了集成学习的概念,包括Bagging、Boosting和Stacking等方法,重点讲解了随机森林(RF)、Extra_Tree、TRTE以及Adaboost和GBDT。此外,还对比了Bagging和Boosting的区别,强调了它们在样本选择、计算方式、效果和分类器模型上的差异。
摘要由CSDN通过智能技术生成

一、集成学习简介

    集成学习的思想就是将多个弱学习器组合成一个强学习器。集成学习的优点在于保证了弱分类器的多样性,使得其得到的结果往往比单个学习器的效果好(可以理解为真理往往掌握在大多数人手中

    常见的集成学习的思想主要有:

    1)bagging    (自举汇聚法)

    bagging算法:对于有m个样本的原始数据集,进行n次有放回的抽样得到一个样本,重复s次操作得到s个数据集,对这s个数据集训练出s个弱学习器,将这s个弱学习器融合得到一个强学习器。

    模型融合方法:对于分类模型,采用少数服从多数(多数投票)的方法。   对于回归模型,采用平均值的方法。

    2)boosting    (提升算法)

    bagging算法不考虑构建的模型之间的关系,boosting考虑各个模型之间的关系,并且通过加权累加的方式生成新的模型(强预测模型)。boosting的算法由于考虑模型之间的关系,所以boosting只能串行执行

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值