DataWhale集成学习【中】:(二)Bagging

文章目录

原理

  • DataWhale集成学习【中】:(一)投票法我们提到过:要想让整体模型取得更好的效果,应该增加模型之间的差异性。而增加模型之间的差异性的方法主要有两种:一是不同的数据,另一则是不同的方法
  • Bagging 方法的出发点就是不同的数据,其核心之处在于自助采样(bootstrap),即有放回的从数据集中进行采样
  • 基本流程:首先随机取出一个样本放入采样集合中,再把这个样本放回初始数据集,重复 K 次采样,则最终可以获得一个大小为 K 的样本集合。同样的方法,可以取出 T 个大小为 K 的样本集合,然后基于每个采样集合训练出一个基学习器,将这 T 个基学习器进行集成即可
  • 应用之处:Bagging 是一种降低方差的技术,因此在不剪枝决策树、神经网络等易受样本扰动的学习器上效果更加明显。在实际中,加入列采样的 Bagging 技术对高维小样本有很好的效果

案例

  • Python 的 sklearn 库中提供了 BaggingRegressorBaggingClassifier 两种 Bagging 方法
  • 下面的案例演示的是BaggingClassifier API的应用,基模型默认为树模型
# 导入函数库
from numpy import mean,std
from sklearn.datasets import make_classification
from sklearn.model_selection import cross_val_score,RepeatedStratifiedKFold
from sklearn.ensemble import BaggingClassifier

# 加载数据集
X,y = make_classification(n_samples=1000,n_features=20
                          ,n_informative=15,n_redundant=5,random_state=911)
# 训练模型
model = BaggingClassifier()
# 评估模型
cv = RepeatedStratifiedKFold(n_splits=10,n_repeats=3,random_state=911)
n_scores = cross_val_score(model,X,y,scoring="accuracy"
                           ,cv=cv,n_jobs=-1,error_score="raise")
print("Accuracy: %.3f,标准差为 %.3f"%(mean(n_scores),std(n_scores)))

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值