Bagging思想的前世今生

本文介绍了Bagging思想,起源于解决决策树过拟合问题,通过有放回抽样和基学习器平均降低方差。随机森林是Bagging的一个应用,结合特征随机选择构建多棵决策树。在scikit-learn中,BaggingClassifier和BaggingRegressor用于分类和回归,oob_score利用未被采样的数据评估模型误差。基学习器数量增加能改善效果,但会增加计算成本。
摘要由CSDN通过智能技术生成

目录

随机森林的产生

Bagging思想详解

为什么Bagging可以降低方差

scikit-learn中bagging

oob_score

基学习期数目


  • 随机森林的产生

决策树容易过拟合,偏差低,方差高

--> 可以降低方差的方式:Bagging(Boostrap aggregating),每个分类器对样本进行随机取样在平均。

--> 不仅对样本随机,对特征也随机,将多棵决策树进行融合,就是随机森林

 

  • Bagging思想详解

bootstrap样本:有放回的取样

aggregating对多个基学习器进行平均

 

  • 为什么Bagging可以降低方差

借鉴数学上对推导:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值