决策树概述

本文介绍了决策树的基本概念,包括其模型结构、优缺点以及学习过程。重点讲述了决策树的构造,涉及特征选择、树的生成和剪枝。特征选择通过信息增益和信息增益比衡量,常用的生成算法有ID3、C4.5和CART,其中CART适用于分类和回归任务。为了防止过拟合,通常会进行树的剪枝操作。
摘要由CSDN通过智能技术生成

决策树

决策树是一种基本的分类与回归方法。决策树模型呈树形结构,在分类问题中表示基于特征对实例进行分类的过程。可以认为是if-then规则的集合。
它的优点是模型具有可读性,分类速度快。缺点是容易过拟合。
决策树的学习通常包括3个步骤:特征选择、决策树的生成和决策树的修剪。

决策树的构造

目标:决策树的目标就是从数据集中归纳出一组分类规则,使数据集中的所有样本都能被划分到正确的类别。就是由数据集估计的一个条件概率模型。
损失函数:通常是正则化的极大似然函数
策略:是以损失函数为目标函数的最小化。
构造:首先为根节点选择一个最有特征对数据集进行划分,然后分别对其子节点进行最优划分,即每一步求局部最优解,直至所有样本都被正确地分类,生成对应的叶子结点,最后所有样本应都被分到叶子结点上。
下图是一个简单的示例:
在这里插入图片描述
通常数据集中都有很多特征,在每个节点划分时选择最优的特征,怎样才算最优的特征呢?这就是决策树中最核心的特征选择。

特征选择

特征选择在于选取对数据集具有分类能力的特征。
1.信息增益
信息熵:是信息的期望值,表示随机变量的不确定性的度量
条件熵:表示在已知随机变量X的条件下随机变量Y的不确定性
信息增益表示用特征A对样本集合进行划分时不确定性的减少程度
(具体计算方法参考李航的统计学习方法)
2.信息增

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值