机器学习算法基础3-决策树

本文介绍了决策树的基础,包括信息论中的熵、联合熵、条件熵和信息增益。讨论了基尼不纯度在决策树中的作用,以及如何使用它来选择划分属性。还提到了ID3、C4.5和CART算法,并探讨了决策树防止过拟合的策略,如剪枝方法。最后,概述了sklearn库中决策树模型的关键参数。
摘要由CSDN通过智能技术生成

摘要
今天介绍决策树以及 信息论基础首先我们看到 信息论基础可以分为


  • 是接收的每条消息中包含的资讯的平均量,又被称为资讯熵,信源熵,平均资讯本体量。这里,「消息」代表来自分布或数据流中的事件,样本或特征。(熵最好理解为不确定性的量度而不是确定性的量度,因为越随机的信源的熵越大。)
  • 联合熵
  • 联合熵的定义,代表X,Y同时发生的不确定性
    在这里插入图片描述在这里插入图片描述
  • 条件熵
    在资讯理论中,条件熵描述了在已知第二个随机变量 X的值的前提下,随机变量 Y的信息熵还有多少。同其它的信息熵一样 ,条件熵也用Sh、nat、Hart等信息单位表示。基于}X条件的Y的信息熵,用H(Y | X)表示。
    在这里插入图片描述
  • 信息增益
  • 熵 - 条件熵在一个条件下,信息不确定性减少的程度!通俗地讲,X(明天下雨)是一个随机变量,X的熵可以算出来, Y(明天阴天)也是随机变量,在阴天情况下下雨的信息熵我们如果也知道的话(此处需要知道其联合概率分布或是通过数据估计)即是条件熵。两者相减就是信息增益!原来明天下雨例如信息熵是2,条件熵是0.01(因为如果是阴天就下雨的概率很大,信息就少了),这样相减后为1.99,在获得阴天这个信息后,下雨信息不确定性减少了1.99!是很多的!所以信息增益大!也就是说,阴天这个信息对下雨来说是很重要的!所以在特征选择的时候常常用信息增益,如果IG(信息增益大)的话那么这个特征对于分类来说很关键~~ 决策树就是这样来找特征的!
  • 基尼不纯度
    基尼不纯度是用于决策树编程中的一个专业术语。
    基尼不纯度,是指将来自集合中的某种结果随机应用在集合中,某一数据项的预期误差率。
    是在进行决策树编程的时候,对于混杂程度的预测中ÿ
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
决策树是一种基于机器学习的算法,它通过构建一棵状结构来进行分类或回归任务。ID3(Iterative Dichotomiser 3)算法是最早的决策树生成算法之一,由R.A. Quinlan在1986年提出。下面是ID3算法构建决策树的主要步骤: 1. **目标定义**:ID3算法的目标是选择一个最优的属性(特征),该属性能够最大化数据集的纯度划分。 2. **熵或信息增益计算**:ID3使用信息熵来度量数据集的不确定性,以及每个属性对减少这个不确定性的贡献。对于分类问题,通常使用信息增益(Entropy Gain);对于连续值,可以用基尼不纯度(Gini Impurity)代替。 3. **选择最佳属性**:选择信息增益或基尼不纯度最大的属性作为当前节点的分裂属性。 4. **递归分割**:根据选定的属性,将数据集分割成子集,然后对每个子集递归地应用ID3算法,直到所有数据属于同一类别或者满足停止条件。 5. **停止条件**:常见的停止条件包括达到最大深度、子集太小(如样本数小于某个阈值)或者没有可用的属性可以选择。 6. **创建决策节点**:当数据纯度达到一定程度或达到最大深度时,创建一个决策节点,其结果是根据选择的属性和子集的类别。 7. **输出决策树**:最终形成一个从根到叶的决策树模型,其中内部节点表示特征测试,分支表示可能的结果,叶子节点代表类别预测。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值