bagging与随机森林(python实现)

bagging是一种通过数据随机重抽样构建基学习器的方法,它使用放回采样形成子训练集,结合多个基学习器的预测来做出最终决定。随机森林作为bagging的一个实例,采用了CART决策树并改进了特征选择过程,以提高模型的泛化能力。随机森林的优点包括并行训练、高维度特征处理、特征重要性评估、泛化能力强和对缺失值不敏感,但也存在过拟合和某些特征影响较大的问题。
摘要由CSDN通过智能技术生成

bagging

采用数据随机重抽样的分类器构建方法,从训练集进行子抽样组成每个基学习器的子训练集,结合所有基学习器的预测结果进行最终的预测。如下图所示:
在这里插入图片描述
关于“随机采样”:
随机采样(bootsrap)就是从我们的训练集里面采集固定个数的样本,但是每采集一个样本后,都将样本放回。也就是说,之前采集到的样本在放回后有可能继续被采集到。对于我们的Bagging算法,一般会随机采集和训练集样本数m一样个数的样本。这样得到的采样集和训练集样本的个数相同,但是样本内容不同。如果我们对有m个样本训练集做T次的随机采样,,则由于随机性,T个采样集各不相同。其中有1/e(计算很简单)的数据是从未采样到的,可以用来作为测试集。
GBDT的子采样是无放回采样,bagging是有放回采样。
为什么说bagging是减少variance,而boosting是减少bias?
链接:https://www.zhihu.com/question/26760839/answer/40337791
随机森林的改进:
首先,RF使用了CART决策树作为弱学习器,这让我们想到了梯度提升树GBDT。第二,在使用决策树的基础上,RF对决策树的建立做了改进,对于普通的决策树&

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值