《机器学习实战》个人学习记录笔记(四)———决策树

本文详细介绍了决策树的基本原理,包括信息熵和信息增益的概念,并通过实例展示了如何计算经验熵和信息增益,以此选择最优特征。文章讨论了决策树的优缺点及其适用数据范围,强调了决策树在处理不同数据类型时的能力。
摘要由CSDN通过智能技术生成

第三章 决策树

PS:个人笔记 根据《机器学习实战》这本书,Jack-Cui的博客,以及深度眸的视频进行学习

1 决策树原理

决策树(decision tree)是一种基本的分类与回归方法。决策树模型呈树形结构,在分类问题中,表示基于特征对实例进行分类的过程。它可以认为是if-then规则的集合,也可以认为是定义在特征空间与类空间上的条件概率分布。


2 优缺点及适用数据范围

优点:

计算复杂度不高,输出结果易于理解 (每次都是基于某一列特征来算,在算下一次递归后,就不考虑该列特征了。并且通过剪枝使的计算不复杂。结果是通过树形结果显示,很清楚就能分别。)

对中间值的缺失不敏感

可以处理不相关特征数据(因为是基于特征列来算的,不考虑列与列之间的关系)

缺点:

可能会产生过度匹配问题(就是过拟合了)

适用数据类型:

数值型和标称型


3 集合信息的度量方式 ⭐  

香农熵或者简称为熵(entropy),这个名字来源于信息论之父克劳德·香农

熵定义为信息的期望值。在信息论与概率统计中,熵是表示随机变量不确定性的度量。如果待分类的事务可能划分在多个分类之中,则符号xi的信息定义

  ,     其中p(xi)是选择该分类的概率。

通过上式,我们可以得到所有类别的信息。为了计算熵,我们需要计算所有类别所有可能值包含的信息期望值(数学期望),通过下面的公式得到:             


其中n是分类的数目。熵越大,随机变量的不确定性就越大。

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值