决策树和集成学习(一)

本篇笔记主要介绍决策树的ID3,C4.5,C5.0,CART等常用算法,然后讨论决策树的集成学习,包括袋装法,提升法,随机森林,GBDT,AdaBoost等算法。

一、决策树

分支处理

对于一个决策树的构建,最重要的是分支处理,即决定在每个决策节点处的分支属性。下面是一些常用决策树算法。

1、ID3

具体的算法可以参考https://www.cnblogs.com/feiyumo/p/9284490.html
ID3算法计算分支属性对于样本集分类好坏程度的度量------信息增益
在决策树的构建中,会出现使用所有的属性进行分支之后,类别不同的样本仍然存在于同一个叶子节点中,除此之外,当达到了限制条件而被强制停止构建时,也会出现节点中子样本集存在多种分类的情况,对于这种情况,一般取此节点中子样本集占多数的分类作为节点的节点的分类。
缺点:在ID3算法中,往往选择取值比较多的分支属性。

2、C4.5

总体上与ID3思路相同,区别在于分支上的处理。
C4.5引入了信息增益率作为度量。其在一定程度上能解决ID3算法存在的选择取值较多的分支属性的问题。

3、C5.0

C4.5基础上的商用版本,目的是对含有大量数据的数据集进行分析。

4、CART算法

classification and regression tree 即分类回归树。CART算法采用的是二分循环分割的方法,每次划分都把当前样本集划分为两个子样本集,使决策树中的节点均有两个分支,显然这样就构造了一个二叉树。如果分支属性有多于两个取值,在分裂时会对属性进行组合,选择最佳的两个组合分支。假设某属性有q个可能取值,那么以该属性为分支属性,生成两个分支的分裂方法有(2^(q-1)-1)种。

对于每次新生成的节点,若子样本集的分类不唯一,就进行与跟节点相同的分裂过程。

当CART是分类树时,采用最小的GINI值作为节点分裂的依据;当CART是回归树时,采用样本的最小方差作为节点分裂的依据;

区别和特点:

在确定每个决策节点处的分支属性

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值