【人工智能】决策树

本文详细介绍了决策树的定义、工作原理、结构、训练与分类阶段,以及如何通过不纯性度量和熵来评估划分优劣。信息增益作为决策树的重要概念,被用于ID3、C4.5和CART等算法中。决策树因其直观易懂和在集成学习中的作用而备受关注。
摘要由CSDN通过智能技术生成

前言

本文参考书籍:《人工智能原理及其应用》第四版

✨你好啊,我是“ 怪& ”,是一名在校大学生哦。
🌍主页链接:怪&的个人博客主页
☀️博文主更方向为:课程学习知识、作业题解、期末备考。随着专业的深入会越来越广哦…一起期待。
❤️一个“不想让我曾没有做好的也成为你的遗憾”的博主。
💪很高兴与你相遇,一起加油!

一、定义

决策树(Decision Tree)是在已知各种情况发生概率的基础上,通过构成决策树来求取净现值的期望值大于等于零的概率,评价项目风险,判断其可行性的决策分析方法,是直观运用概率分析的一种图解法。由于这种决策分支画成图形很像一棵树的枝干,故称决策树。

  • 是一种归纳分类算法
  • 隶属于有监督的学习
  • 它通过对训练集的学习,挖掘出有用的规则,用于对新集进行预测。

二、原理

其基于贪心算法,树状结构,层层筛选。
贪心法性质及特点详见文章链接:【算法设计与分析】3、贪心法

1、性质:

  • 自上而下、分而治之
  • 开始时,所有数据皆在根节点
  • 属性都是离散值字段(若其连续,则将其离散化)
  • 所有记录用所选属性递归的进行分割
  • 属性的选择基于一个启发式规则或者一个统计的度量

2、停止分割

  • 一个节点上的数据都是属于同一个类别
  • 没有属性可以再用于数据进行分割

三、结构

1、结构示例

请添加图片描述

2、问题示例

请添加图片描述

四、阶段

1、训练阶段

从给定的训练数据集DB,构造出一颗决策树。
DT = fitctree(data,class)

2、分类阶段

从根开始,按照决策树的分类属性逐层往下划分,直到叶节点,获得概念(决策、分类)结果。
y = predict(DT,x)

五、划分优劣的判断

1、不纯性度量

分类划分的优劣用不纯性度量来分析。
对于所有的分支,划分后选择相同分支的所有实例都属于相同的类,则该划分是纯的。

2、熵

  • 系统愈发混乱,熵愈大
  • 若一节点上数据类值在可能的类值上均匀分布,则节点的熵最大
  • 若一个节点上的数据的类值对于所有数据都相同,则熵最小
  • 决策树通过分裂选择,得到尽可能纯的节点,这相当于降低系统的熵。

六、信息增益

请添加图片描述

常用算法

1、ID3
2、C4.5
3、CART

意义

1、非参数学习。
2、其实决策树的性能并不是很好,但其逻辑易理解。
3、在集成学习中发挥重要作用。(不同数据训练出不同决策树,多个数量综合其结果。)

  • 11
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 13
    评论
评论 13
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

怪&

感谢您的支持

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值