决策树--C4.5(Python)

本文详细介绍了C4.5算法,包括信息增益率、连续属性离散化处理、剪枝策略PEP以及缺失值处理。C4.5是ID3的改进版,能处理离散和连续属性,且通过信息增益率避免选择多值属性,支持处理缺失值。文章还讨论了C4.5的优缺点和Python实现。
摘要由CSDN通过智能技术生成

1. C4.5算法简介
  C4.5算法是用于生成决策树的一种经典算法,是ID3算法的一种延伸和优化。C4.5算法对ID3算法主要做了一下几点改进:
  (1)通过信息增益率选择分裂属性,克服了ID3算法中通过信息增益倾向于选择拥有多个属性值的属性作为分裂属性的不足;
  (2)能够处理离散型和连续型的属性类型,即将连续型的属性进行离散化处理;
  (3)构造决策树之后进行剪枝操作;
  (4)能够处理具有缺失属性值的训练数据。

2. 分裂属性的选择——信息增益率
  分裂属性选择的评判标准是决策树算法之间的根本区别。区别于ID3算法通过信息增益选择分裂属性,C4.5算法通过信息增益率选择分裂属性。
  属性A的“分裂信息”(split information):
在这里插入图片描述

  其中,训练数据集S通过属性A的属性值划分为m个子数据集,| S j S_j Sj|表示第j个子数据集中样本数量,S表示划分之前数据集中样本总数量。
  通过属性A分裂之后样本集的信息增益:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
  通过属性A分裂之后样本集的信息增益率:
在这里插入图片描述

  通过C4.5算法构造决策树时,信息增益率最大的属性即为当前节点的分裂属性,随着递归计算,被计算的属性的信息增益率会变得越来越小,到后期则选择相对比较大的信息增益率的属性作为分裂属性。

3. 连续型属性的离散化处理
  当属性类型为离散型,无须对数据进行离散化处理;当属性类型为连续型,则需要对数据进行离散化处理。C4.5算法针对连续属性的离散化处理,核心思想:将属性A的N个属性值按照升序排列;通过二分法将属性A的所有属性值分成两部分(共有N-1种划分方法,二分的阈值为相邻两个属性值的中间值);计算每种划分方法对应的信息增益,选取信息增益最大的划分方法的阈值作为属性A二分的阈值。详细流程如下:
  (1)将节点Node上的所有数据样本按照连续型属性A的具体取值,由小到大进行排列,得到属性A的属性值取值序列( x 1 A x^A_1 x1A,…, x N A x^A_N xNA)
  (2)在序列( x 1 A x^A_1 x1A,…, x N A x^A_N xNA)中共有N-1种二分方法,即共产生N-1个分隔阈值。对于第i种二分方法,其二分阈值 θ i = ( x i A + x i + 1 A ) / 2 θ_i=(x^A_i+x^A_{i+1})/2 θi=(xiA+x

  • 7
    点赞
  • 39
    收藏
    觉得还不错? 一键收藏
  • 6
    评论
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值