学习笔记:信息熵与决策树

本文深入探讨信息熵的概念及其在决策树中的应用,解释了信息熵如何衡量预测难度,条件信息熵如何衡量特定条件下预测的难度,并介绍了信息增益在选择决策树节点上的作用。此外,文章还讨论了构建决策树时需考虑的问题,如根节点的选择、树的生长停止条件,以及决策树的构造准则和潜在问题,如连续型属性处理和决策树剪枝。
摘要由CSDN通过智能技术生成

你也可以通过我的独立博客 —— www.huliujia.com 获取本篇文章

信息熵

什么是信息熵

信息熵用于度量”预测随机变量Y的取值“的难度。信息熵越大说明Y的取值的不确定性越大,即预测难度越大。本文用H(Y)表示预测Y值的信息熵。

下表为两只球队的虚拟的胜、负、平历史记录,显然预测恒大比赛结果的难度要远小于绿城。因为恒大90%都是胜场,预测恒大胜就可以了。而绿城胜、平、负的概率都是三分之一,很难预测绿城的比赛结果。这里随便变量Y就是比赛结果,显然预测恒大比赛结果(即Y的取值为胜、平或者负)的信息熵要小于绿城,即不确定性小于绿城。

球队
恒大 90% 5% 5%
绿城 34% 33% 33%

信息熵的计算方式

信息熵有很多计算公式,不同的计算公式获得的结果也是不同的,公式如下图所示
在这里插入图片描述

条件信息熵

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值