机器学习——决策树与随机森林

本文深入探讨了决策树的优缺点,详细介绍了信息增益、增益率和基尼指数三种划分选择标准,并阐述了C4.5和CART决策树算法。随后,文章提到了随机森林这一决策树集成方法,解释了其降低不稳定性的方式,以及在分类和回归问题中的应用。最后,简要提及了基于梯度的boosting——GBDT,强调了其通过训练残差改进模型的特性。
摘要由CSDN通过智能技术生成

决策树

一棵决策树,包括:

  • 根结点
  • 内部结点:对应于一个属性测试
  • 叶子结点:决策的结果

目的:产生一棵泛化能力强的决策树,换言之就是处理未见过的示例能力强的决策树。

优缺点:

划分选择 

决策树学习的一个关键在于,如何去选择一个最优划分的属性,要根据这个属性去创建下一个分支。也就是说,我们希望决策树的分支结点所能包含的样本尽可能的属于同一个类别,结点purity越来越高。

一,信息增益

ID3决策树

  • 信息熵(information entropy):

假设样本集D中第k类样本所占比例为P_k,

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值