决策树算法简介

本文介绍了决策树的学习过程,包括ID3、C4.5和CART算法,以及特征选择、决策树生成和修剪的步骤。信息增益、信息增益率和基尼指数分别用于特征选择。ID3算法易受多值特征和过拟合影响,C4.5和CART则进行了改进。CART通过基尼指数防止过拟合,采用预剪枝和后剪枝策略。
摘要由CSDN通过智能技术生成

一、基础理论

决策树的主要优点是模型具有可读性,分类速度快。学习时,会利用训练数据,根据损失函数最小化的原则建立决策树模型。预测时,对新的数据,可以利用决策树模型进行分类。

  1. 通常包括3个步骤:特征选择、决策树的生成和决策树的修剪。
  2. 代表算法:

①ID3算法——Quinlan,1986;

②C4.5算法——Quinlan,1993;

③CART算法——Breiman,1984.

  1. 三种划分数据集的方法:

①信息增益算法(ID3);

②信息增益率(C4.5);

③基尼指数(CART)。

二、节点纯度的度量

熵用于表示随机变量不确定性的度量。假设变量S有n种情况,pi表示第i情况的概率,那么随机变量S的熵定义为:

熵取值最大,随机变量不确定性就最大。

    在随机变量S给定的条件下,随机变量A的条件熵Entropy(A|S)定义为:

  • 信息增益表示的是:得知特征X的信息而使得分类Y的信息的不确定性减少的程度。特征A对数据集D的信息增益表示为:

  • ID3具体做法是:从根节点开始,对节点计算所有可能特征的信息增益,选择信息增益最大的特征作为节点的特征,并由该特征的不同取值构建子节点;对子节点递归地调用以上方法构建决策树,直到所有特征的信息增益均很小或者没有特征可选时为止。
  • 基尼系数(CART):

 CART解决过拟合的方法:预剪枝和后剪枝。

  • ID3算法的缺点:①没考虑连续特征,大大限制了算法的应用场景;②没考虑缺失值情况;③没考虑过拟合情况;④相同条件下,取值较多的特征相对取值较少的特征信息增益大。
  • C4.5算法对以上缺点进行了改进。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值