机器学习总结(四)——随机森林与GBDT(梯度提升决策树)

本文介绍了随机森林的基本原理,包括有放回采样和属性随机选择,以及如何通过投票或平均处理来获取最终结果。同时,文章对比了GBDT(梯度提升决策树),指出两者在树的数量、对异常值的敏感性以及处理方式上的异同。最后,总结了随机森林的优势,如防止过拟合、处理不同类型数据的能力以及并行化的潜力。
摘要由CSDN通过智能技术生成

这里写图片描述


1. 随机森林简介

随机森林采用的是bagging的思想,bagging即:通过在训练样本集中进行有放回的采样得到多个采样集,基于每个采样集训练出一个基学习器,再将基学习器结合起来共同实现分类或者回归。随机森林在对决策树进行bagging的基础上,在决策树的训练过程中引入了随机属性选择。传统决策树在选择划分属性的时候是在当前节点属性集合中选择最优属性,而随机森林则是对结点先随机选择包含k个属性的子集,再选择最优属性,k作为一个参数控制了随机性的引入程度。
总结起来包括2个:

  • 有放回的采集多个采样集,训练多个基分类器;
  • 每个基分类器随机选择一些属性而不是全部属性;

特点:可以很好的避免过拟合

2. 随机森林怎么取最后的结果

对于分类问题:可以对多个基分类器进行投票表决的方式;
对于回归问题:对于预测的值可以简单的平均处理计算;

3. GBDT(梯度提升决策树

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值