SPSS Modeler 集成学习算法之同质集成(第十五章)

在这里插入图片描述

前面小编和大家一起学习了若干分类器,一般情况下,我们在训练集上构建单个分类器解决问题。而对于集成学习算法,可以组合若干个基分类器,从而提升分类器的预测性能。通俗说,就是三个臭皮匠赛过诸葛亮。

如果基分类器的数量趋于无穷多,那么集成分类器的错误率是否会等于0呢?
不会,因为集成分类器错误率趋于0需要达到以下条件:
(1)基分类器的错误率要低于0.5%;
(2)基分类器之间相互独立。
一般的,我们是基于同一数据集进行分类器的训练,很难满足分类器间相互独立的条件。在实际中,只能尽量保证分类器之间不存在强相关的情况。当所有基分类器完全相关时,组合分类器的性能不会有任何改善。

同质集成:指所有基分类器都是由同一种算法所产生的。
同质集成学习方法:Bagging,Boosting,随机森林。

一、Bagging

Boostrap AGGregatING,也称为袋装法,是最为经典的并行集成算法。

1.1 过程:对原始训练数据集进行有放回的重复抽样达到目的。

<
  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值