决策树学习1--熵的计算及python实现代码

本文介绍了决策树的基本概念,强调了熵作为衡量数据集合纯度的指标,以及如何通过信息增益准则选择最优特征。文中通过《统计学习方法》的例题,展示了计算信息增益熵的Python实现,最终选择了信息增益最大的特征作为划分依据。
摘要由CSDN通过智能技术生成

决策树(Decision Tree)是在已知各种情况发生概率的基础上,通过构成决策树来求取净现值的期望值大于等于零的概率,评价项目风险,判断其可行性的决策分析方法,是直观运用概率分析的一种图解法。

决策树是一种树形结构,其中每个内部节点表示一个属性上的测试,每个分支代表一个测试输出,每个叶节点代表一种类别。

今天是第一个内容:

特征选择:

首先提出熵的概念:熵是表示随机变量不确定性的度量。

计算方法:

X:表示当前的数据集合。

x:表示当前数据集合中的第k类,也就是我们目标变量的类型。

熵越大,证明越不稳定。 

我们用信息熵来衡量一个分支的纯度,那哪个特征是最优的特征呢?在决策树学习中应用信息增益准则来选择最优特征。信息增益定义如下:

对训练集D

  • 1
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值