ML模型5:集成算法简介

本文介绍了集成学习中的三种主要方法:Bagging、Boosting和Stacking。Bagging中的随机森林通过随机抽样和特征选择构建决策树以降低过拟合。Boosting中的Adaboost通过迭代调整样本权重,GBDT则通过最小化残差来构建决策树。Xgboost是优化版的GBDT,具有训练速度快和并行计算能力。Stacking则通过组合多个模型的预测结果来提升整体性能。
摘要由CSDN通过智能技术生成

集成学习在机器学习算法中具有较高的准去率,不足之处就是模型的训练过程可能比较复杂,效率不是很高。其核心思想就是如何训练处多个弱分类器以及如何将这些弱分类器进行组合。主要分类如下:

Bagging:训练多个分类器取平均。如随机森林

Boosting:从弱学习器开始加强,通过加权来进行训练。Adaboost、GBDT、XGBOOST

Stacking:聚合多个分类或回归模型(可以分阶段来做)

1. Bagging

全称:bootstrap aggregating

bagging 采用的是随机有放回的选择训练数据然后构造分类器,最后组合。因为 bagging 方法可以减小过拟合,所以通常在强分类器和复杂模型上使用时表现的很好(例如,完全决策树,fully developed decision trees),相比之下 boosting 方法则在弱模型上表现更好(例如,浅层决策树,shallow decision trees)。
image

预测

对于数值类的回归预测问题,通常使用的结合策略是平均法,也就是说,对于若干和弱学习器的输出进行平均得到最终的预测输出。

对于分类问题的预测,我们通常使用的是投票法。最简单的投票法是相对多数投票法,也就是我们常说的少数服从多数。稍微复杂的投票法是绝对多数投票法ÿ

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值