AI遮天传 ML-集成学习_two heads are better than one — a very brief intro(1)

img
img
img

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!

由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新

需要这份系统化资料的朋友,可以戳这里获取

这些模型会大不相同,但它们的效果可能很差。

解决办法: 拔靴采样(Bootstrap sampling)

  • 给定集合 D ,含有 m 训练样本;
  • 通过从D中均匀随机的有放回采样m个样本构建 Di ;
  • 希望 Di 会 遗漏掉 D 中的某些样本。
Bagging 算法

For t = 1, 2, …, T Do

  • 从S中拔靴采样产生 Dt
  • 在 Dt 上训练一个分类器Ht

最后,分类一个新的样本x∈X 时,通过对 Ht 多数投票(等权重)。

比如我们从大集合S中放回采样T组,每组样例都有自己的训练值ci,来了一个新的样本x,我们对每个ci(x)进行输出投票。

数据集: Rousseeuw 和 Leroy (1986),臭氧含量 vs. 温度。 100 拔靴采样样本。

灰色线条: 初始的10个预测器; 红色线条: 平均。

Breiman “Bagging Predictors” Berkeley Statistics Department TR#421, 1994。

给定样例集S,Breiman重复下列工作100次报告平均结果:

方法 I:

  1. 把 S 随机划分成测试集 T(10%) 和训练集 D (90%)
  2. 从D中训练 决策树 算法,记 eS 为它在测 试集 T 上的错误率

方法 II:

重复50次: 生成拔靴采样集合Di , 进行决策树学习,记 eB 为决策树多数投票在测试 集T上的错误率 (集成大小 = 50)

同样的实验,但使用最近邻分类器 (欧式距离)

发生了什么? 为什么 ?

Bagging:讨论

Bagging 在学习器“不稳定”时有用,关键是预测方法的不稳定性。

E.g. 决策树、神经网络

为什么?

  • 不稳定: 训练集的差异可以造成产生的假设大不相同。
  • “如果打乱训练集合可以造成产生的预测器大不相同,则bagging算法可以提升其准确率。” (Breiman 1996)
总结

加权多数算法

  • 相同数据集, 不同学习算法
  • 产生多个模型,加权融合

Bagging

  • 一个数据集, 一个弱分类器
  • 生成多组训练样本 来训练多个模型,然后集成。

四、Boosting

是否有一个集成算法能够考虑学习中数据的差异性?

基本想法–从失败中学习
  • 给每个样本一个权值
  • T 轮迭代,在每轮迭代后增大错误分类样本的权重。          – 更关注于“难”样本

AdaBoost

简而言之:少数提升,多数降低。

AdaBoost.M1

此时做错的一定是少数派,我们把正确的降低权重(β<1, 归一化),重复t轮融合,去新的权重log(1/β)

我们不停地更新权重w1,w2…wT,把每一个分类器(带着自己权值)融合在一起,来一个新的样本时加权计算。

例如:

最终假设

AdaBoost在实际使用时的优点
  1. 简单 + 易编程实现
  2. 只有一个参数要调 (T )
  3. 没有先验知识
  4. 灵活: 可以和任何分类器结合(NN, C4.5, …)
  5. 被证明是有效的 (尤其是弱学习器)
  6. 转变了思路: 现在目标是 仅仅需要寻找比随机猜测好一些的假设就可以了
AdaBoost注意事项

性能依赖于 数据 & 弱学习器

在下列情况中使用AdaBoost会 失效

  • 弱学习器 太复杂 (过拟合)
  • 弱学习器 太弱 (αt ->0 太快),
    • 欠拟合
    • 边界太窄->过拟合

过去的实验表明,AdaBoost 似乎 很容易受到噪声的影响

五、讨论

Bagging vs. Boosting

训练集合

  • Bagging: 随机选择样本, 各轮训练集相互独立
  • Boosting: 与前轮的学习结果有关,各轮训练集并不独立

预测函数

  • Bagging: 没有权重; 便于并行
  • Boosting: 权重变化 呈指数; 只能顺序进行

效果

  • 实际中,bagging几乎总是有效。
  • 平均地说,Boosting比bagging好一些,但boosting算法也较常出现损害系统性能的情况。
  • 对稳定模型来说bagging效果不好,Boosting可能仍然有效。
  • Boosting 可能在有噪声数据上带来性能损失,Bagging没有这 个问题。

重新调权 vs. 重新采样

  • Reweighting 调整样本权重可能更难处理
    • 一些学习方法无法使用样本权重
    • 很多常用工具包不支持训练集上的权重
  • Resampling 我们可以重采样来代替:
    • 对数据使用boostrap抽样,抽样时根据每个样例的权值确定其被抽样的概率
  • 一般重新调权效果会更好一些但重新抽样更容易实现

img
img
img

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!

由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新

需要这份系统化资料的朋友,可以戳这里获取

67262070)]
[外链图片转存中…(img-6WcDmsMR-1715667262070)]

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!

由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新

需要这份系统化资料的朋友,可以戳这里获取

  • 11
    点赞
  • 21
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值