[机器学习/人工智能]集成学习小记

本文探讨了集成学习中的Bagging和Boosting策略,解释了它们如何分别通过降低方差和偏差来提升模型性能。Bagging通过随机抽样减少过拟合,而Boosting通过迭代加强弱学习器。随机森林在此基础上,引入了特征选择,进一步降低方差。Stacking作为一种高级集成技术,结合多种模型预测结果进行最终决策。
摘要由CSDN通过智能技术生成

Bagging降低方差(variance),boosting降低偏差(bias)

Bagging与Boosting的区别

简单的记:
Bagging降低方差的原因:bagging是随机取样,因此模型间相关性不高,所以可以防止过拟合

Boosting降低偏差的原因:Boosting是对完整的训练样本赋予了权重,每次训练都更逼近真实结果,所以是降低偏差

总结:
Bagging: 减少方差,通常也可以避免过拟合,但基准模型需要低偏差
基准模型互相独立,运行速度快

Boosting:减少偏差,基准模型需要低方差,避免过拟合
各个基准模型只能顺序生成,运行速度较慢

Random Forest(随机森林)是什么?

随机森林包含了Bagging,但对Bagging进行了优化。

它包含了两个步骤:

  1. 对于每棵树而言,随机且有放回地从训练集中的抽取若干个训
    练样本( bootstrap sample ),作为该树的训练集。

  2. 随机地从该数据集所有特征中选取一个特征子集

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值