王小草【机器学习】笔记--分类算法之决策树

标签(空格分隔): 王小草机器学习笔记


决策树可以用于解决分类问题,也可以用于解决连续型的回归预测问题,是业界常说的机器学习的十大算法之一。决策树也属于监督学习的一种。

在教科书里必须会出现的,常用的决策树大概有3种,分别是C4.5,ID3,CART算法。本章中都会一一详细讲述。

1. 决策树的结构

决策树是由节点和有向边组成。节点分两种类型:内部节点与叶子节点。
内部节点:表示的是一个特征
叶子节点:表示的是一个类。
也就是说样本通过内部节点的各个特征的判断,最终会到达属于它的叶子节点,从而就获得了它被分在的类别。

下面是一个决策树的图形:圆形节点表示内部节点(特征),方形节点表示叶子节点(类别)。这个决策树有两个类别:出去打球,不出去打球。有三个特征:outlook,humidity,windy。
搜狗截图20160910110641.png-40.2kB

这是一个很经典的案例,下面是原始数据。

搜狗截图20160910175001.png-183.9kB

结合数据与图形进行解析:首先拿了outlook这个特征来进行分类,outlook有三种值:sunny,overcast,rainy。当取overcast的时候,有4个样本,4个样本全是yes的类别,所以没有必要再继续使用其他特征去分类了。当取sunny的时候有5个样本,但是5个样本中类别不一致(3个no,2个yes),所以接着又选取了humidity这个特征来做分类,当outlook为sunny,humidity为high的时候,全部3个样本都为no,当humigity为normal的时候,全部2个样本为yes。既然同一个节点的类别一致了,那么分类也到此结束了。再看另一侧,当outlook为rainy的时候,仍然没有分出一致的类别,所以使用了windy这个特征进一步做分类,发现在outlook为rainy,windy为true的时候全部2个样本都是no,当为false的时候全部3个样本为yes。至此,每一个叶子节点上的类别都是一致的了,所以决策树通过这个3个特征非常准确得分出了所有样本的类别。

再通过两个图形来认识一下决策树的结构:

案例一:相亲之前通过年龄,长相,收入,是否为公务员这4个特征来分类“约会”与“不约会”的两个类别
搜狗截图20160910175221.png-172.5kB

案例二:通过个头大小,叫声,脖子长短,鼻子长短,水生与陆生这5个特征来分类动物的种类。
搜狗截图20160910175233.png-33kB

2. 特征的选择

上面的介绍中也看到,要做到正确的分类,大部分时候都是需要用到多个特征的,有效特征越多则分类的错误率可能就越低。

但是那么多特征,到底要先使用哪个特征后使用哪个特征呢?特征使用的先后顺序是否会对分类的准确性或是效率产生影响呢?

那必须会呀~

那要通过什么指标来衡量每个特征,并依次选出最先使用的特征呢?

本节我首先介绍一下熵的含义与计算,然后依次介绍C4.5,ID3,Cart三种算法的特征选择标准。

2.1 熵,条件熵

2.1.1熵的定义

熵entropy表示对随机变量不确定性的度量。

设X是一个取有限个值的离散随机变量。
比如下表,x取3个值,并对应了三个概率:

x= 1 2 3
  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值