机器学习——决策树

一. 决策树与预备知识

  1. 基本概述

决策树是一种树型结构,它是以实例为基础的归纳学习,每个内部结点表示在一个属性上的测试,每个分支代表一个测试输出,每个叶结点代表一个类别。决策树采用的是自顶向下的递归方法,其基本思想是以信息熵为度量构造一棵熵值下降最快的树,到叶子节点处的熵值为0,此时每个叶节点中的实例都属于同一类。


  1. 决策树学习算法的特点

决策树学习算法的最大优点是它可以自学习,只需要对训练实例进行较好的标注,就能够进行学习。
决策树算法属于有监督学习算法。
从一类无序无规则的事物中,推理出决策树表示的分类规则。


当熵和条件熵中的概率由数据估计(特别是极大似然估计)得到时,所对应的熵和条件熵分别称为经验熵和经验条件熵。
熵度量了事物的不确定性,越不确定的事物,它的熵就越大。具体的,随机变量X的熵的表达式如下:
H ( X ) = − ∑ i P ( X i ) l o g ( P ( X i ) ) H(X)=- \sum_iP(X_i)log(P(X_i)) H(X)=iP(Xi)log(P(Xi))
推广到多个个变量的联合熵,这里给出两个变量X和Y的联合熵表达式:
H ( X , Y ) = − ∑ i P ( X i , Y i ) l o g ( P ( X i , Y i ) ) H(X,Y)=- \sum_iP(X_i,Y_i)log(P(X_i,Y_i)) H(X,Y)=iP(Xi,Yi)log(P(Xi,Yi))


  1. 信息增益

信息增益表示得知特征A的信息而使得类X的信息的不确定性减少的程度。例如:当你要判断一个女生是否适合你,比如 身高/长相/体重这三个因素是决定你是否选择她的关键指标,信息增益就是说当你知道女生的身高后,你就能进一步确定是否是适合你的,那么这种不确定性减少的程度就是信息增益。


  1. 互信息

定义:特征A对训练数据集D的信息增益为   g ( D , A ) \ g(D, A)  g(D,A),定义集合D的经验熵   H ( D ) \ H(D)  H(D)与特征A给定条件下D的经验条件熵   H ( D ∣ A ) \ H(D | A)  H(DA)之差,即
  g ( D , A ) = H ( D ) − H ( D ∣ A ) \ g(D, A)=H(D) - H(D | A)  g(D,A)=H(D)H(DA), 这即为训练数据集D和特征A的互信息。


  1. 信息增益的计算方法

a. 计算数据集D的经验熵 H ( D ) H(D) H(D)
b. 计算特征A对数据集D的经验条件熵 H ( D ∣ A ) H(D | A) H(DA)
c. 计算信息增益 g ( D , A ) g(D, A) g(D,A)

经验熵计算:
  H ( D ) = − ∑ k K C k D l o g C k D \ H(D)=-\sum_k^K\frac{C_k }{D }log\frac{ C_k}{D }  H(D)=kKDCklogDCk

经验条件熵计算:
  H ( D ∣ A ) = − ∑ i ∑ k P ( D k , A i ) l o g P ( D k ∣ A i ) \ H(D|A)=-\sum_i\sum_kP(D_k, A_i)logP(D_k|A_i)  H(DA)=ikP(Dk,Ai)logP(DkAi)
= − ∑ i ∑ k P ( A i ) P ( D k ∣ A i ) l o g P ( D k ∣ A i ) =-\sum_i\sum_kP(A_i)P(D_k| A_i)logP(D_k|A_i) =ikP(Ai)P(DkAi)logP(DkAi)
= − ∑ i n P ( A i ) ∑ k K P ( D k ∣ A i ) l o g P ( D k ∣ A i ) =-\sum_i^nP(A_i)\sum_k^KP(D_k| A_i)logP(D_k|A_i) =inP(Ai)kKP(DkAi)logP(DkAi)
= − ∑ i n ∣ C i ∣ ∣ D ∣ ∑ k K ∣ C i k ∣ ∣ D i ∣ l o g ∣ C i k ∣ ∣ D i ∣ =-\sum_i^n\frac{ |C_i|}{|D| }\sum_k^K\frac{ |C_ik|}{|D_i |}log\frac{ |C_ik|}{|D_i| } =inDCikKDiCiklogDiCik

信息增益:
  g ( D , A ) = H ( D ) − H ( D ∣ A ) \ g(D, A)=H(D) - H(D | A)  g(D,A)=H(D)H(DA)

** 谁的信息增益最大,那个特征就是当前决策树要选择的节点。


  1. 信息增益率

特征 A A A对训练数据集 D D D的信息增益 g r ( D , A ) g_r(D,A) gr(D,A)定义为其信息增益 g ( D , A ) g(D,A) g(D,A)与训练数据集 D D D关于特征 A A A的值的熵 H A ( D ) H_A(D) HA(D)之比,即

  g r ( D , A ) = g ( D , A ) / H A ( D ) \ g_r(D, A)=g(D, A)/ H_A(D)  gr(D,A)=g(D,A)/HA(D)


  1. 基尼指数
    G i n i ( P ) = ∑ k K P k ( 1 − P k ) = 1 − ∑ k K P k 2 = 1 − ∑ k K ( ∣ C k ∣ ∣ D ∣ ) 2 Gini(P) =\sum_k^KP_k(1-P_k)=1-\sum_k^KP^2_k=1-\sum_k^K(\frac{ |C_k|}{|D|})^2 Gini(P)=kKPk(1Pk)=1kKPk2=1kK(DCk)2

  1. 基尼指数的图像, 熵, 分类误差率三者之间的关系

在这里插入图片描述基尼系数和熵之半的曲线非常接近,仅仅在45度角附近误差稍大。因此,基尼系数可以做为熵模型的一个近似替代。而CART分类树算法就是使用的基尼系数来选择决策树的特征。同时,为了进一步简化,CART分类树算法每次仅仅对某个特征的值进行二分,而不是多分,这样CART分类树算法建立起来的是二叉树,而不是多叉树。这样一可以进一步简化基尼系数的计算,二可以建立一个更加优雅的二叉树模型。


二. 决策树学习算法

特征选择也即选择最优划分属性,从当前数据的特征中选择一个特征作为当前节点的划分标准。我们希望在不断划分的过程中,决策树的分支节点所包含的样本尽可能属于同一类,即节点的“纯度”越来越高。而选择最优划分特征的标准不同,也导致了决策树算法的不同。

  1. 三种决策树学习算法介绍

ID3算法: 适应信息来进行特征选择的决策树学习过程即为ID3决策。
C4.5算法: 利用信息增益率进行特征选择
CART算法:利用基尼指数进行特征选择

总结:一个属性的信息增益越大,表明属性对样本的熵减少的能力更强,这个属性使得数据由不确定性变成确定性的能力越强。
在这里插入图片描述 2. I D 3 ID3 ID3算法

I D 3 ID3 ID3算法的核心是在决策树各个节点上根据信息增益来选择进行划分的特征,然后递归地构建决策树。具体方法:

  1. 从根节点开始,对节点计算所有可能的特征的信息增益,选择信息增益值最大的特征作为节点的划分特征;
  2. 由该特征的不同取值建立子节点;
  3. 再对子节点递归地调用以上方法,构建决策树;
  4. 到所有特征的信息增益都很小或者没有特征可以选择为止,得到最终的决策树

I D 3 ID3 ID3的局限:

  1. 没有剪枝(没有考虑过拟合的问题)
  2. 采用信息增益作为选择最优划分特征的标准,然而信息增益会偏向那些取值较多的特征(这也是 C 4.5 C4.5 C4.5采用信息增益率的原因)。在相同条件下,取值比较多的特征比取值少的特征信息增益大。比如一个变量有 2 2 2个值,各为 1 / 2 1/2 1/2,另一个变量为 3 3 3个值,各为 1 / 3 1/3 1/3,其实他们都是完全不确定的变量,但是取 3 3 3个值的比取2个值的信息增益大。
  3. I D 3 ID3 ID3没有考虑连续特征,比如长度,密度都是连续值,无法在 I D 3 ID3 ID3运用。这大大限制了 I D 3 ID3 ID3的用途。
  4. I D 3 ID3 ID3算法对于缺失值的情况没有做考虑

举例:
在这里插入图片描述
在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述ID3 算法的作者昆兰基于上述不足,对ID3算法做了改进,这就是C4.5算法
3. C4.5算法
参考博客:https://www.cnblogs.com/pinard/p/6050306.html的讲解。

总之,C4.5解决了上述四个问题:
第一 不能处理连续特征
第二个就是用信息增益作为标准容易偏向于取值较多的特征
第三缺失值处理的问
第四过拟合问题

解决不能处理连续特征的问题:

C 4.5 C4.5 C4.5的思路是将连续的特征离散化。比如 m m m个样本的连续特征 A A A m m m个,从小到大排列为 a 1 , a 2 , . . . , a m {a_1,a_2,...,a_m} a1,a2,...,am,则 C 4.5 C4.5 C4.5取相邻两样本值的平均数,一共取得 m − 1 m-1 m1个划分点,其中第 i i i个划分点 T i T_i Ti表示为:
T i = a i + a i + 1 2 T_i = \frac{a_i+a_{i+1}}{2} Ti=2ai+ai+1
对于这 m − 1 m-1 m1个点,分别计算以该点作为二元分类点时的信息增益。选择信息增益最大的点作为该连续特征的二元离散分类点。比如取到的增益最大的点为 a t a_t at,则小于 a t a_t at的值为类别 1 1 1,大于 a t a_t at的值为类别 2 2 2,这样我们就做到了连续特征的离散化。

在这里插入图片描述解决信息增益作为标准容易偏向于取值较多的特征

引入一个信息增益比的变量 I R ( X , Y ) I_R(X,Y) IR(X,Y),它是信息增益和特征熵的比值。表达式如下: I R ( D , A ) = I ( A , D ) H A ( D ) I_R(D,A) = \frac{I(A,D)}{H_A(D)} IR(D,A)=HA(D)I(A,D) 其中: D D D为样本特征输出的集合, A A A为样本特征,对于特征熵 H A ( D ) H_A(D) HA(D),
表达式如下:

H A ( D ) = − ∑ i = 1 n ∣ D i ∣ ∣ D ∣ l o g 2 ∣ D i ∣ ∣ D ∣ H_A(D) =-\sum\limits_{i=1}^{n}\frac{|D_i|}{|D|}log_2\frac{|D_i|}{|D|} HA(D)=i=1nDDilog2DDi
其中: n n n为特征A的类别数, D i D_i Di为特征 A A A的第 i i i个取值对应的样本个数。 ∣ D ∣ |D| D为样本个数。特征数越多的特征对应的特征熵越大,它作为分母,可以校正信息增益容易偏向于取值较多的特征的问题。

对于第三个缺失值处理的问题,主要需要解决的是两个问题,一是在样本某些特征缺失的情况下选择划分的属性,二是选定了划分属性,对于在该属性上缺失特征的样本的处理。

  1. CART算法

首先,我们要明白,什么是回归树,什么是分类树。两者的区别在于样本输出,如果样本输出是离散值,那么这是一颗分类树。如果果样本输出是连续值,那么这是一颗回归树。

C A R T ( c l a s s i f i c a t i o n a n d r e g r e s s i o n t r e e ) CART(classification and regressiontree) CART(classificationandregressiontree),分类回归树算法,既可用于分类也可用于回归。CART分类树算法使用基尼系数来代替信息增益比,基尼系数代表了模型的不纯度,基尼系数越小,则不纯度越低,特征越好。这和信息增益(比)是相反的。
C A R T CART CART假设决策树是二叉树,内部节点特征的取值为“是”和“否”,左分支为取值为“是”的分支,右分支为取值为”否“的分支。这样的决策树等价于递归地二分每个特征,将输入空间(即特征空间)划分为有限个单元。 C A R T CART CART的分类树用基尼指数来选择最优特征的最优划 分点,具体过程如:

具体的,在分类问题中,假设有 K K K个类别,第 k k k个类别的概率为 p k p_k pk, 则基尼系数的表达式为:

G i n i ( p ) = ∑ k = 1 K p k ( 1 − p k ) = 1 − ∑ k = 1 K p k 2 Gini(p) = \sum\limits_{k=1}^{K}p_k(1-p_k) = 1- \sum\limits_{k=1}^{K}p_k^2 Gini(p)=k=1Kpk(1pk)=1k=1Kpk2

如果是二类分类问题,属于第一个样本输出的概率是 p p p,则基尼系数的表达式为:

G i n i ( p ) = 2 p ( 1 − p ) Gini(p) = 2p(1-p) Gini(p)=2p(1p)

对于个给定的样本 D D D,假设有 K K K个类别, 第 k k k个类别的数量为 C k C_k Ck,则样本 D D D的基尼系数表达式为:

G i n i ( D ) = 1 − ∑ k = 1 K ( ∣ C k ∣ ∣ D ∣ ) 2 Gini(D) = 1-\sum\limits_{k=1}^{K}(\frac{|C_k|}{|D|})^2 Gini(D)=1k=1K(DCk)2

从根节点开始,对节点计算现有特征的基尼指数,对每一个特征,例如 A A A,再对其每个可能的取值 如 a a a,根据样本点对 A = a A=a A=a的结果的”是“与”否“划分为两个部分,利用下式进行计算。

G i n i ( D , A = a ) = ∣ D 1 ∣ ∣ D ∣ G i n i ( D 1 ) + ∣ D 2 ∣ ∣ D ∣ G i n i ( D 2 ) Gini(D,A=a)=\frac{ |D_1|}{|D|}Gini(D_1)+\frac{ |D_2|}{|D|} Gini(D2) Gini(D,A=a)=DD1Gini(D1)+DD2Gini(D2)

  1. 在所有可能的特征 A A A以及该特征所有的可能取值 a a a中,选择基尼指数最小的特征及其对应的取值作为最优特征和最优切分点。然后根据最优特征和最优切分点,将本节点的数据集二分,生成两个子节点。
  2. 对两个字节点递归地调用上述步骤,直至节点中的样本个数小于阈值,或者样本集的基尼指数小于阈值,或者没有更多特征后停止;
  3. 生成 C A R T CART CART分类树;

三. 决策树过拟合

(1) 由于决策树算法非常容易过拟合,因此对于生成的决策树必须要进行剪枝。剪枝的算法有非常多, C 4.5 C4.5 C4.5的剪枝方法有优化的空间。思路主要是两种,一种是预剪枝,即在生成决策树的时候就决定是否剪枝。另一个是后剪枝,即先生成决策树,再通过交叉验证来剪枝。
Cart树剪枝
(2) sklearn 提供的剪枝方式:
a. max_depth
限制树的最大深度,超过设定深度的树枝全剪掉
b. min_samples_split
一个节点要包含min_samples_split个训练样本
c. min_samples_leaf
一个节点在分支后的每个节点至少包含多少个叶子节点
d. min_weight_fraction_leaf
这个参数用来限制信息增益的大小
e. max_features
这个参数用做树的精修,限制分枝时考虑的特征个数

# 决策树.py
#
import numpy as np
from sklearn import tree, datasets, preprocessing
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score
import graphviz

np.random.RandomState(0)

# 加载数据
iris = datasets.load_iris()

# 划分训练集与测试集
x, y = iris.data, iris.target
x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.3)

# 数据预处理
scaler = preprocessing.StandardScaler().fit(x_train)
x_train = scaler.transform(x_train)
x_test = scaler.transform(x_test)

# 创建模型
clf = tree.DecisionTreeClassifier('gini')

# 模型拟合
clf.fit(x_train, y_train)

# 预测
y_pred = clf.predict(x_test)

# 评估
print(accuracy_score(y_test, y_pred))

dot_data = tree.export_graphviz(clf, out_file=None,
                                feature_names=iris.feature_names,
                                class_names=iris.target_names,
                                filled=True, rounded=True,
                                special_characters=True)
graph = graphviz.Source(dot_data)
graph.render("iris")
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值