集成学习笔记

本文的课程来源:
https://www.bilibili.com/video/av23908372/?p=3

集成模型需要各种各样的子模型:
这里写图片描述

但同时我们又不需要很高的准确率:
随着子模型地增加,总体准确率上升。
这里写图片描述
这里写图片描述

具体地,创建差异(每个子模型是看样本数据的一部分)有两种方式:
这里写图片描述

下面用代码来实现一个集成学习:
准备数据:
这里写图片描述
使用Bagging训练数据:
n_estimators 表示子模型的个数,max_samples表示每个子模型的样本数目,bootstrap表示是Bagging或者Pasting
这里写图片描述

对于Bagging方法来说,实际上约有三分之一的数据取不到:
这里写图片描述
那么,我们可以直接用这部分的数据来当作测试样本,加入oob_score属性即可,代码如下:
这里写图片描述

关于Bagging的更多探讨:
这里写图片描述

下面开始介绍Boosting:
Boosting中子模型之间不是独立的,每个模型都在尝试增强整体的效果。
Ada Boosting:
这里写图片描述
这里写图片描述

Gradient Boosting:
这种方法是每次对误差值进行训练。
这里写图片描述
这里写图片描述

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值