机器学习笔记04_集成学习:随机森林、GBDT

本文介绍了集成学习中的两种主要方法:Bagging和Boosting。在Bagging中,重点讨论了随机森林,包括其采样和决策树构建的过程。在Boosting部分,讲解了Adaboost和GBDT(梯度提升决策树),特别是GBDT通过误差来寻找分割点,利用残差进行迭代优化。文章还提到了异常值检测的Isolation Forest和集成学习中的过拟合问题。
摘要由CSDN通过智能技术生成

集成学习:

常见的集成学习思想有:

Bagging  (并联)

   代表:随机森林

Boosting(串联)

   代表:Adaboost —— 根据正确率修改样本权重

             GBDT —— 根据残差(梯度)修改样本标签值

  Stacking

 

Bagging 并联训练:-------------------------------------------------------------------------------------

预测:

 

随机森林:

• Bagging策略的基础上进行修改后的一种算法

1. 从原始样本集(n个样本)有放回重采样选出n个样本并去重,也就是训练的样本数目实际上应该是小于n

2. 从所有属性中随机选择K个属(不放回采样)K个属性中选择出最佳分割属性作为节点来迭代的创建决

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值