机器学习算法——决策树1(ID3决策树算法)

1. 决策树(Decision Tree)是一种常用的分类方法,是一种监督学习

一般的,一棵决策树包含一个根节点、若干个内部节点和若干个叶节点;叶节点对应于决策结果,其他每个节点则对应于一个属性测试。每个节点包含的样本集合根据属性测试的结果被划分到子节点中;根节点包含样本全集。

从根节点到每个叶节点的路径对应了一个判定测试序列

2. ID3决策树算法

信息熵是度量样本集合纯度最常用的一种指标。

利用信息熵原理选择信息增益最大的属性作为分类属性,递归地拓展决策树的分支,完成决策树的构造。

假设当前样本集合D中第k类样本所占的比例为pk(k=1,2,...,|y|),则D的信息熵定义为

{\color{Red} Ent(D)=-\sum_{k=1}^{|y|}p_{k}log_{2}p_{k}}

Ent(D)的值越小,则D的纯度越高。

离散属性a有V个可能的取值{a^{1}, a^{2}, a^{3},..., a^{v}};样本集合中,属性a上取值为a^{v}的样本集合,记为D_{v}.

用属性a对样本集D进行划分所获得的“信息增益”(information gain)为

{\color{Red} Gain(D,a)=Ent(D)-\sum_{v=1}^{V}\frac{|D^{v}|}{|D|}Ent(D^{v})}

一般而言,信息增益越大,则意味着使用属性a来进行划分所获得的“纯度提升”越大。

下一章讲解C4.5决策树算法。

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值