决策树综述
决策树的工作原理
决策树(decision tree)分类法是一种简单但广泛使用的分类技术。以是否贷款违约的二分类问题为例,当我们希望根据给定的训练集习得一个模型对新出现的贷款人进行分类时,经常需要从大量的贷款申请单中识别出来哪些贷款人是劣质的贷款人(容易拖欠贷款)。想象一下客户经理和助手针对一个贷款者进行的如下对话:
经理:他有房吗?
助手:没有
经理:他结婚了吗?
助手:没有,一个单身汉
经理:他年收入高于70K吗?
助手:不足70K
经理:那驳回他的申请
经理根据贷款者的各方面“特征”一步步分析后进行的多次决策就相当于一个简单的决策树过程。下面我们用一个决策树模型模拟经理的决策过程。
决策树的构成
决策树是一种由节点和有向边组成的层次结构,树中包含三种节点:
- 根节点(root node):它没有入边,但有零条或多条出边,是决策树首次划分的节点。
- 内部节点(internal node):恰有一条入边和两条或多条出边。
- 叶子节点(left node):恰有一条入边但没有出边。每个叶子节点都被赋予一个类标签。
如何建立决策树模型
机器学习中,决策树是一个预测模型,代表着的是对象属性与对象值之间的一种映射关系。树中每个节点表示某个对象,而每个分叉路径则代表的某个可能的属性值,而每个叶节点则对应从根节点到该叶节点所经历的路径所表示的对象的值。机器学习中的经典决策树算法包括ID3,C4.5和CART等,但最基本的原理都是一样的。
理论上讲,对于给定的属性集可以构造的决策树数目达到指数级,尽管某些决策树比其他决策树更加准备,但是由于搜索空间是指数规模的,找出最佳决策树在计算上是不可行的。尽管如此,人们还是开发了一些有效的算法能够在合理的时间内构造出具有一定准确率的次最优决策树。
这些算法通常采用贪心策略,在选择划分数据的属性时,采取一系列局部最优决策来构造决策树,Hunt算法就是这样一种算法,它是包括ID3、C4.5和CART在内算法的基础。
决策树的发展:Hunt-ID3-C4.5-CART
虽然基于多棵弱决策树的Bagging、Random Forest和Boosting等Tree ensemble模型更加普遍且准确率更优,但是“完全生长”的决策树由于其简单直观的特性具有广泛的应用。除此之外,想要掌握Tree ensemble模型也绕不开组成其的弱分类树原理。
一般而言,一棵“完全生长”的决策树包括特征选择、决策树构建和剪枝三个过程。在Hunt算法的基础上,决策树算法发展出较为流行的ID3、C4.5和CART算法,同样这些算法都是基于启发式的贪心算法简历的,并不能保证建立全局最优的决策树。
我们这里简单介绍三种决策树算法:
- ID3决策树按照“最大信息增益”原则选择最优划分特征(特征一经划分在之后的过程中不再参与划分),然后按照该特征的所有取值划分数据集。缺点是会优先选择属性值较多的特征(该特征信息增益较大);不能处理属性值是连续型变量的特征。
- C4.5算法:在ID3算法基础上使用信息增益率(gain ratio)替代信息增益(information gain)。缺点:信息增益率会优先选择可取值数目较少的属性,并且对于连续属性需要扫描排序,性能不佳。
- CART算法:CART使用基尼系数(Gini index)来选择划分属性,并且采用二分递归分割技术生成结构简洁的二叉树,同时CART既能处理分类问题又能处理回归问题。
关于决策树的各种算法的细节会在决策树部分详细介绍,本文只介绍CART决策树。
CART决策树介绍
CART树全称是Classification and Regression Tree。递归地将当前数据集分割为两个子数据集,形成一棵二叉树。CART既能处理连续型变量又能处理离散型变量,利用训练数据递归的划分特征空间进行决策树构造,用验证集进行剪枝。
CART决策树特点
- 二叉树:内部节点属性取值分为“是”(归到左分支)和“否”(归到右分支)。一般而言,二叉树的精度会高于多叉树。
- 组成:特征选择、树生成和剪枝
- 适用:既可用于分类也可用于回归
- 特征选择标准:Gini系数。对于离散型属性选择该属性产生最小Gini 系数的子集作为分裂子集;对于连续型属性考虑所有可能的分裂点。
CART分类树(输出为离散型变量)
1、算法
输入:训练数据集,停止计算的条件
输出:CART决策树
算法:根据训练数据集,从根节点开始,递归地对每个节点进行如下操作,构建二叉决策树
- 设当前节点的训练数据集为,计算每个现有属性A对该数据集的Gini系数。同时,对每个属性的每个可能取值,根据样本对
$A=a$
的测试为“是”或“否”将二分为、两个部分,计算和后加权得到的系数 - 对于所有可能的属性和他们所有可能的分割点,选择Gini系数最小的属性和其对应的分割点作为最优属性和最优分割点,并以此从现节点生成两个子节点,将训练数据集依属性测试条件分配到两个子节点中
- 对两个子节点递归进行上两步,直到满足停止条件。
2、相关公式
数据集的不纯度用Gini 系数度量:
:表示分类的类别个数
:数据集D中第k类样本所占的比例()
纯度意义:直观来说,数据集D的不纯度反映了从中随机抽取两个样本,其类别标记不一致的概率,当越小时,纯度越高
当数据集根据属性在某一取值上进行二元分割后得到,两个子集。增益表示数据集根据属性分割后集合的不纯度增益。
对于属性,分别计算每个取值对应的增益,然后选取其中最小值作为属性得到的最优二分方案。然后对于数据集,计算所有属性的最优二分方案,选择其中的最小值作为数据集的最优分割属性。
CART回归树(输出为连续型变量)
用户数值预测的决策树可分为两类。第一类称为回归树,是在20世纪80年代作为CART算法的一部分引入的。尽管它被称为回归树,但是并没有使用线性回归方法,而是基于到达叶节点的输出平均值做预测的。第二类称为模型树,这是一种鲜为人知的算法,但功能要比回归树强大,模型树和回归树以大致相同的方式生长,但是在每个叶子节点处会根据到达该叶子节点的数据建立多元线性回归模型
1、回归树算法原理
假设X和Y分别是输入和输出变量(连续型变量),在训练集所在的输入空间中,递归地将每个区域划分为两个子区域,根据每个子区域上输出值的平均值作为预测结果,构建二叉树。
训练数据集:
选择最优划分属性j和划分属性值s:
:表示被二元划分的两个输入空间
:表示Ri空间对应的固定输出值
原理:遍历属性j和对应的划分属性值,找到使该式最小的对
选定对后,划分区域并决定相应的输出值:
继续对两个子区域调用上述步骤,直到满足停止条件,最终将输入空间划分为个区域,生成决策树:
2、回归树的问题
下图是我对一个数据集应用回归树和模型树算法后真实值(横轴)与预测值(纵轴)的散点图。可以看到回归树只能预测有限个值(这取决于划分的输出空间个数M),本质上仍然是在做分类,然后对每个分类赋予到达该叶节点的类平均值。相比之下,模型树在回归方面的表现更加出色。
3、模型树:回归树的进阶版本
前面讲回归树的缺点时我们提到回归树的预测值是有限的,对于每一个叶节点赋予一个固定的值。模型树和回归树的生长方式一致,但是在每个叶子节点都建立的对应的多元线性回归模型,从而实现真正意义上的“回归”。
写在最后
我们简单梳理了一下决策树的原理和发展历程,并详细介绍了CART分类和回归树的算法,但还有一些关于决策树算法的其他内容我们还没有介绍。例如一棵完全生长的决策树存在过拟合的问题,我们会专门介绍决策树的剪枝;再比如基于简单决策树的Tree ensemble模型。