机器学习 | 决策树的理论与实践

七月 上海 | 高性能计算之GPU CUDA培训

7月27-29日 640?wx_fmt=jpeg 三天密集式学习  快速带你入门 阅读全文 >


正文共2165个字,25张图,预计阅读时间15分钟。



640?wx_fmt=png一个小故事


zenRRan二十出头了,到了婚配的年龄啦。又因为家是名门望族,所以一堆人抢着想来应聘配偶的职位。但是zenRRan比较挑剔,必须达到他的要求才能有机会成为他的另一半,要求为:


1. 性别女,非女性不要

于是刷刷刷走了一半人,剩下的全部为女性。

2.身高必须要在150-165cm

于是又走了一堆人,剩下的为160-165cm之间的女生。

3.性格要温柔贤惠

听到这些,又走了一些人,最后留下的极为最后的应聘候选人。


上述过程可以用树来表示:

640?wx_fmt=png

像上面的这样的二叉树状决策在我们生活中很常见,而这样的选择方法就是决策树。机器学习的方法就是通过平时生活中的点点滴滴经验转化而来的。


640?wx_fmt=png建立决策树的逻辑


正如上述树状图所示,我们最终会通过特征:


性别,身高,性格

得到了4种分类结果,都存在于叶子节点。


非女生,身高不符合的女生,身高符合性格不符合的女生,都符合的最佳候选人。


现在我们来回想下上面的建立决策的流程:


首先在一群给定数据(应聘者)中,我们先通过一个特征(性别)来进行二分类。当然选取这个特征也是根据实际情况而定的,比如zenRRan选取第一个条件为性别的原因是,来的男的太多了,比例占的有点大,所以先给他分成类放到一边,剩下的更加好分类而已。


然后,对叶子节点(那些还想继续分类的节点们)继续进行上述的流程。


那么怎么选取特征作为当前的分类依据呢?有两种方法:


信息熵和基尼系数。


640?wx_fmt=png   信息熵


熵这个概念想必大家都不陌生,熵用来表示数据的确定性程度。研究一个词,就要从他的来源说起,熵,来自热动力学,表示原子或者一个事物的稳定程度,温度越高,原子越活跃,越不稳定;反而温度越低,就越稳定,越保持不动。所以慢慢的这个概念被用到各个方向,也就有了新的定义词汇,但是它的本意没变,就是稳定程度大小的表示。


那么在决策树里面,我们用的是一种熵,信息熵,来表示类别的稳定程度。


公式为:


640?wx_fmt=png


注:p为一个类的占比


什么意思呢?具体用数字表示下:


比如一个分类结果由三个类组成,占比为1/3 1/3 1/3,那么它们的信息熵为:


640?wx_fmt=png


如果占比为1/10 2/10 7/10,那么它的信息熵为:


640?wx_fmt=png


那再举一个极端情况,也就是我们想要得到的类,只包含一种情况,其他的比例为0,那么比如占比情况为:1 0 0,那么它的信息熵为:


640?wx_fmt=png


我们会发现一个分类结果里,里面的类别比例越是接近,信息熵也就越大,反之越是趋向于一个值,越是小,会达到0。


如果将所有的情况考虑在内的话,就能绘成一个图(为了好画,以该分好的类别里有两种事物为例):


640?wx_fmt=png

我们会发现,当占比为0.5的时候,也就是另一个事物的占比也是0.5的时候信息熵最高,当倾向于一个事物的时候,信息熵最小,无限接近并达到0。


为什么都占比一样的时候信息熵最大呢?也就是说最不稳定呢?因为当每个事物都占比一样的时候,一个小事物进来,不清楚它到底属于哪一类;如果只有一类事物或者一类事物居多数,那么也就比较明确该属于哪类,也就稳定,确定了。


那么怎么用呢?


我们通过计算机分类,因为有很多种分类情况,不是每一次分类都是直接将同一类分到一个类别里,而是将该分好的两个类的信息熵总和最小为依据,不断地通过暴力寻找最佳选择。然后递归进行对分好类的数据进行再分类。


640?wx_fmt=png基尼系数


基尼系数和信息熵在这里具有同样的性质。先看看它的公式:

640?wx_fmt=png


公式看不出什么特色之处,就继续用数字展示下:


比如依然是三分类,类别占比为1/3 1/3 1/3,基尼系数为:

640?wx_fmt=png


类别占比为1/10 2/10 7/10,基尼系数为:

640?wx_fmt=png


如果是极端情况下占比为1 0 0,那么基尼系数为;


640?wx_fmt=png


我们根据公式其实就能看出来,平方的函数为凸函数,而该公式在都相等的时候值最大。


640?wx_fmt=png   代码实现


再重说下流程:


通过对每个特征进行尝试分类,记录当前分类最小的信息熵(或基尼系数)的特征为当前分类结果。


选取一些点,初始化数据:


640?wx_fmt=png


X为二维平面的数据点,Y为类别。


数据点分布情况:


640?wx_fmt=png


信息熵函数:


640?wx_fmt=png


基尼系数函数:


640?wx_fmt=png


二者使用一个即可。


下面是一个分类核心的流程:


640?wx_fmt=png


文字描述为:


对数据点的特征0维进行尝试分类,先按照0维数据排序,然后取每相邻的中点值,然后以0维该值分界线,处于分界线两侧的数据分别求信息熵(或基尼系数),如果比之前的小,这就保存该值和当前维度。然后选取第1维进行相同操作,最终的最小信息熵(或基尼系数)最小对应的值为本次分类的结果。


但是这个仅仅是一层分类,如果还子节点还有要分类的数据,继续上述操作即可。


640?wx_fmt=png  分类代码


640?wx_fmt=png


分类效果流程图:


决策树第一层分类结果为:


640?wx_fmt=png

640?wx_fmt=png

640?wx_fmt=png

当前线为最佳值,1维的数据就是分过的,但是没有当前的值好,也就没显示。


现在已经分出了两类,左边的红色和右边的绿色+蓝色。那么还要对上述的右边进行分类,获取该数据,并且继续进行分类,分类流程图为:


640?wx_fmt=png

640?wx_fmt=png

640?wx_fmt=png


最终得出的分类结果为上述两条线。其中粉色为第一层分类,紫色为第二层分类。


640?wx_fmt=png批判性思维看决策树


看到上述的分类结果,其实你心里也想到了决策树的缺点了,就是分类总是横平竖直的,不能是曲线。


比如


640?wx_fmt=png


该四个数据的分类最佳理想条件下应该为上述紫色线条,但是决策树的结果为;


640?wx_fmt=png


如果存在数据在:

640?wx_fmt=png


明明应该属于蓝色点的,但是被划分到红色点里。


所以可以看出,决策树对数据的要求是是苛刻的。


另一个问题是,决策树的学习问题,从上述代码实现过程能够看出来,可以说是暴力求解了。


原文链接:https://www.jianshu.com/p/b1b6add0315c


查阅更为简洁方便的分类文章以及最新的课程、产品信息,请移步至全新呈现的“LeadAI学院官网”:

www.leadai.org


请关注人工智能LeadAI公众号,查看更多专业文章

640?wx_fmt=jpeg

大家都在看

640.png?

LSTM模型在问答系统中的应用

基于TensorFlow的神经网络解决用户流失概览问题

最全常见算法工程师面试题目整理(一)

最全常见算法工程师面试题目整理(二)

TensorFlow从1到2 | 第三章 深度学习革命的开端:卷积神经网络

装饰器 | Python高级编程

今天不如来复习下Python基础

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值