林轩田机器学习 | 机器学习技法课程笔记9 --- Decision Tree

上节课我们主要介绍了Adaptive Boosting。AdaBoost演算法通过调整每笔资料的权重(数据集中每个样本的采样频率),得到不同的hypotheses,然后将不同的hypothesis乘以不同的系数\alpha进行线性组合。这种演算法的优点是,即使底层的假设 g不是特别好(只要比乱选好点),经过多次迭代后算法模型会越来越好,起到了boost提升的效果。本节课将在此基础上介绍 一种新的aggregation算法:决策树(Decision Tree)。

目录

1. Decision Tree Hypothesis

2. Decision Tree Algorithm

3. Decision Tree Heuristics in C&RT

4. Decision Tree in Action

5. 总结


1. Decision Tree Hypothesis

从第7节课开始,我们就一直在介绍aggregation model。aggregation的核心就是将许 多可供选择使用的比较好的hypothesis融合起来,利用集体的智慧组合成G,使其得到 更好的机器学习预测模型。下面,我们先来看看已经介绍过的aggregation type有哪 些。

aggregation type有三种:uniform,non­uniform,conditional。它有两种情况,一种是所有的g是已知的,即blending。对应的三种类型分别是voting/averaging,linear和 stacking。另外一种情况是所有g未知,只能通过手上的数据重构(训练)g,即learning。其中 uniform和non­-uniform分别对应的是Bagging和AdaBoost算法,而conditional对应的就是我们本节课将要介绍的Decision Tree算法。 

决策树(Decision Tree)模型是一种传统的算法,它的处理方式与人类思维十分相似。例如下面这个例子,对下班时间、约会情况、提交截止时间这些条件进行判断, 从而决定是否要进行在线课程测试。如下图所示,整个流程类似一个树状结构。

图中每个条件和选择都决定了最终的结果,Y or N。蓝色的圆圈表示树的叶子,即最终的决定。

把这种树状结构对应到一个hypothesis G(x)中,G(x)的表达式为:

G(x)由许多g_t(x)组成,即aggregation的做法。每个g_t(x)就代表上图中的蓝色圆圈 (树的叶子)。这里的g_t(x)是常数,因为是处理简单的classification问题。我们把这些g_t(x)称为base hypothesis。 q_t(x)表示每个g_t(x)成立的条件,代表上图中橘色箭头的部分。不同的g_t(x)对应于不同的q_t(x),即从树的根部到顶端叶子的路径不同。 图中的菱形代表每个简单的节点。所以,这些base hypothesis和conditions就构成了整个G(x)的形式,就像一棵树一样,从根部到顶端所有的叶子都安全映射到上述公式上去了。

决策树实际上就是在模仿人类做决策的过程。一直以来,决策树的应用十分广泛而且分类预测效果都很不错,而它在数学上的理论完备性不充分,倒也不必在意。

如果从另外一个方面来看决策树的形式,不同于上述G(x)的公式,我们可以利用条件分支的思想,将整体G(x)分成若干个G_c(x),也就是把整个大树分成若干个小树,如下所示:

上式中,G(x)表示完整的大树,即full­-tree hypothesis,b(x)表示每个分支条件,即 branching criteria, G_c(x)表示第c个分支下的子树,即sub­tree。这种结构被称为递归型的数据结构,即将大树分割成不同的小树,再将小树继续分割成更小的子树。所 以,决策树可以分为两部分:root和sub­trees。

在详细推导决策树算法之前,我们先来看一看它的优点和缺点。首先,decision tree 的优点有:

1)模型直观,便于理解,应用广泛。

2)算法简单,容易实现。

3)训练和预测时,效率较高。

然而,decision tree也有相应的缺点:

1)缺少足够的理论支持。

2)如何选择合适的树结构对初学者来说比较困惑。

3)决策树代表性的演算法比较少。

 

2. Decision Tree Algorithm

我们可以用递归形式将decision tree表示出来,它的基本的算法可以写成:

这个Basic Decision Tree Algorithm的流程可以分成四个部分,首先学习设定划分不同分支的标准和条件是什么;接着将整体数据集D根据分支个数C和条件,划为不同分支下的子集D_c;然后基于每个分支下的D_c进行训练,得到相应的机器学习模型/假设G_c;最后将所有分支下的G_c合并到一起,组成大矩G(x)。但值得注意的是,这种递归的形式需要终止条件,否则程序将一直进行下去。当满足递归的终止条件之后,将会返回基本的hypothesis g_t(x)

所以,决策树的基本演算法包含了四个选择:

1)分支个数(number of branches)

2)分支条件(branching criteria)

3)终止条件(termination criteria)

4)基本算法(base hypothesis)

下面我们来介绍一种常用的决策树模型算法,叫做Classification and Regression Tree(C&RT)。C&RT算法有两个简单的设定,首先,分支的个数C=2,即二叉树 (binary tree)的数据结构;然后,每个分支最后的g_t(x) (数的叶子)是一个常数。 按照最小化 E_{in}的目标,对于binary/multiclass classification(0/1 error)问题,看正类和负类哪个更多, g_t(x)取所占比例最多的那一类 y_n;对于regression(squared error) 问题, g_t(x)则取所有y_n的平均值。

对于决策树的基本演算法流程,C&RT还有一些简单的设定。首先,C&RT分支个数 C=2,一般采用上节课介绍过的decision stump的方法进行数据切割。也就是每次在一个维度上,只对一个特征feature将数据一分为二,左子树和右子树,分别代表不同的 类别。然而,怎么切割才能让数据划分得最好呢(即选择哪个特征进行切割,error最小)?C&RT中使用纯净度 purifying这个概念来选择最好的decision stump。purifying的核心思想就是每次切割都尽可能让左子树和右子树中同类样本占得比例最大(classification)或者都很接近(regression), 即错误率最小。比如说classifiacation问题中,如果左子树全是正样本,右子树全是负样本,那么它的纯净度就很大,说明该分支效果很好。

根据C&RT中purifying的思想,我们得到选择合适的分支条件b(x)的表达式如上所示。 最好的decision stump重点包含两个方面:一个是刚刚介绍的分支纯净度purifying, purifying越大越好,而这里使用purifying相反的概念impurity,则impurity越小越好;另外一个是左右分支纯净度所占的权重,权重大小由该分支的数据量决定,分支包含的样本个数越多,则所占权重越大,分支包含的样本个数越少,则所占权重越小。上式中的|D_c\ with\ h|代表了分支c所占的权重(分支c中的样本数,h是切割使用的特征)。这里b(x)类似于error function(这也是为什么使用impurity代替purifying的原因),选择最好的decision stump,让所有分支的不纯度最小化,使b(x)越小越好(b(x)是所有分支不纯度的加权和,其中权重为该分支中的样本数)。

不纯度Impurity如何用函数的形式量化?一种简单的方法就是类比于E_{in},看预测值与真实值的误差是多少。对于regression问题,它的impurity可表示为:

其中,\bar{y}表示对应分支下所有y_n的均值,D为对应分支下的样本。

对应classification问题,它的impurity可表示为:

其中,y^{*}表示对应分支下所占比例最大的那一类,D为对应分支下的样本。

以上这些impurity是基于原来的regression error和classification error直接推导的。进一步来看classification的impurity functions,即classification error等价于下面这个形式:

其中,K为类别数,k = y^*(y^{*}表示对应分支下所占比例最大的那一类)时,第2项最大,此时可以把它看作是纯度,上式整体就是不纯度。

上面这个式子只考虑对应分支下所占比例最大的那一类的纯度,更好的做法是将所有类别的纯度都考虑并计算在内,用基尼指数(Gini index)表示:

Gini index的优点是将所有的class在数据集中的分布状况和所占比例全都考虑了,这样让decision stump的选择更加准确。

对于决策树C&RT算法,通常来说,上面介绍的各种impurity functions中,Gini index 更适合求解classification问题,而regression error更适合求解regression问题。

C&RT算法迭代终止条件有两种情况,第一种情况是当前各个分支下包含的所有样本y_n都是同类的,即不纯度impurity为0,表示该分支已经达到了最佳分类程度。第二种情况是该分支下所有的x_n相同,无法对其进行区分,表示没有decision stumps。遇到 这两种情况,C&RT算法就会停止迭代。

所以,C&RT算法遇到迭代终止条件后就成为完全长成树(fully­-grown tree)。它每次分支为二,是二叉树结构,采用purify来选择最佳的decision stump来划分,最终得到 的叶子( g_t(x))是常数。

 

3. Decision Tree Heuristics in C&RT

现在我们已经知道了C&RT算法的基本流程:

可以看到C&RT算法在处理binary classification和regression问题时非常简单实用,而且,处理muti­class classification问题也十分容易。

考虑这样一个问题,有N个样本,如果我们每次只取一个样本点作为分支,那么在经过N­-1次分支之后,所有的样本点都能完全分类正确。最终每片叶子上只有一个样本,有N片叶子,即必然能保证E_{in} = 0 。这样看似是完美的分割,但是不可避免地造成VC Dimension无限大,造成模型复杂度增加,从而出现过拟合现象。为了避免 overfit,我们需要在C&RT算法中引入正则化,来控制整个模型的复杂度。

考虑到避免模型过于复杂的方法是减少叶子( g_t(x))的数量,那么可以令regularizer 就为决策树中叶子的总数,记为\Omega(G) 。正则化的目的是尽可能减少\Omega(G)的值。这样,regularized decision tree的形式就可以表示成:

我们把这种regularized decision tree称为pruned decision tree。pruned是修剪的意 思,通过regularization来修剪决策树,去掉多余的叶子,更简洁化,从而达到避免过 拟合的效果。

那么如何确定修剪多少叶子,修剪哪些叶子呢?假设由C&RT算法得到一棵完全长成树(fully­grown tree),总共10片叶子。首先减去其中一片叶子,剩下9片(10种情况),将这10种情况比较,取E_{in}最小的那个模型;然后再从9片叶子的模型中减去一片,剩 下8片(9种情况),将这9种情况比较,取E_{in}最小的那个模型。以此类推,继续修剪叶子。这样,最终得到包含不同叶子的几种模型,将这几个模型使用regularized decision tree的 error function(上式)来进行选择,确定包含几片叶子的模型误差最小,就选择该模型。另 外,参数\lambda可以通过validation来确定最佳值。

我们一直讨论决策树上的features都是numerical features,而实际应用中, 决策树的特征值可能不是数字量,而是类别(categorical features)。对于numerical features,我们直接使用decision stump进行数值切割;而对于categorical features, 我们仍然可以使用decision subset,对不同类别进行“左”和“右”,即是与不是(0和1) 的划分。numerical features和categorical features的具体区别如下图所示:

在决策树中预测中,还会遇到一种问题,就是当某些(样本)特征缺失的时候,没有办法进行切割和分支选择。一种常用的方法就是surrogate branch,即寻找与该特征相似的替代 feature。如何确定是相似的feature呢?做法是在决策树训练的时候,找出与该特征相似的feature,如果替代的feature与原feature切割的方式和结果是类似的,那么就表明二者是相似的,就把该替代的feature也存储下来。当预测时遇到原feature缺失的情况,就用替代feature进行分支判断和选择。

 

4. Decision Tree in Action

最后我们来举个例子看看C&RT算法究竟是如何进行计算的。例如下图二维平面上分布着许多正负样本,我们使用C&RT算法来对其进行决策树的分类。

第一步:

第二步:

第三步:

第四步:

在进行第四步切割之后,我们发现每个分支都已经非常纯净了,没有办法继续往下切 割。此时表明已经满足了迭代终止条件,这时候就可以回传base hypothesis,构成 sub tree,然后每个sub tree再往上整合形成tree,最后形成我们需要的完全决策树。 如果将边界添加上去,可得到下图:

得到C&RT算法的切割方式之后,我们与AdaBoost­-Stump算法进行比较:

我们之前就介绍过,AdaBoost­-Stump算法的切割线是横跨整个平面的;而C&RT算法的切割线是基于某个条件的,所以一般不会横跨整个平面。比较起来,虽然C&RT和 AdaBoost­Stump都采用decision stump方式进行切割,但是二者在细节上还是有所区 别。

再看一个数据集分布比较复杂的例子,C&RT和AdaBoost­Stump的切割方式对比效果 如下图所示:

通常来说,由于C&RT是基于条件进行切割的,所以C&RT比AdaBoost­Stump分类切 割更有效率。总结一下,C&RT决策树有以下特点:

 

5. 总结

本节课主要介绍了Decision Tree。首先将decision tree hypothesis对应到不同分支下的矩g_t(x)。然后再介绍决策树算法是如何通过递归的形式建立起来。接着详细研究了决策树C&RT算法对应的数学模型和算法架构流程。最后通过一个实际的例子来演示决策树C&RT算法是如何一步一步进行分类的。

 

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值