集成算法——学习笔记

与神经网络相媲美。非常强大!一般都是对决策树集成。

随机森林与Stacking集成算法。

  • Bagging集成思想与随机森林
  • 理解交叉验证
  • 理解Stacking集成算法。

 

集成算法:多算法融合。

决策树:容易发生过拟合。一颗树不好,就多颗树,森林。

怎么集成?两种方法主流,其他adaboost,xgboost

1、Bagging

独立并行训练,最后取平均值。

随机森林,基础决策树-称为弱学习器,集成之后:强学习器。

随机:随机数据、随机特征->提升泛化能力。

回归任务:均值。

分类任务:投票。

 

优势:并行,速度快。

2、Stacking

stack堆叠

各种任何算法集成。

分阶段:

并行训练,预测,第二阶段依据第一阶段加分类。

相当于在Bagging基础上进行总结。

转载于:https://www.cnblogs.com/wxl845235800/p/11134749.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值