决策树算法原理(python)

实验环境

  • python 3.6.5
  • jupyter

    决策树是什么

      决策论中,决策树(Decision tree)由一个决策图和可能的结果(包括资源成本和风险)组成, 用来创建到达目标的规划。决策树建立并用来辅助决策,是一种特殊的树结构。决策树是一个利用像树一样的图形或决策模型的决策支持工具,包括随机事件结果,资源代价和实用性。它是一个算法显示的方法。决策树经常在运筹学中使用,特别是在决策分析中,它帮助确定一个能最可能达到目标的策略。如果在实际中,决策不得不在没有完备知识的情况下被在线采用,一个决策树应该平行概率模型作为最佳的选择模型或在线选择模型算法。决策树的另一个使用是作为计算条件概率的描述性手段。
      机器学习中,决策树是一个预测模型;他代表的是对象属性与对象值之间的一种映射关系。树中每个节点表示某个对象,而每个分叉路径则代表某个可能的属性值,而每个叶节点则对应从根节点到该叶节点所经历的路径所表示的对象的值。决策树仅有单一输出,若欲有复数输出,可以建立独立的决策树以处理不同输出。
      从数据产生决策树的机器学习技术叫做决策树学习,通俗说就是决策树。一个决策树包含三种类型的节点:
        1、决策节点:通常用矩形框来表示
        2、机会节点:通常用圆圈来表示
        3、终结点:通常用三角形来表示

      使用决策树做预测需要以下过程:
        1、收集数据:可以使用任何方法。比如想构建一个相亲系统,我们可以从媒婆那里,或者通过采访相亲对象获取数据。根据他们考虑的因素和最终的选择结果,就可以得到一些供我们利用的数据了。
        2、准备数据:收集完的数据,我们要进行整理,将这些所有收集的信息按照一定规则整理出来,并排版,方便我们进行后续处理。
        3、分析数据:可以使用任何方法,决策树构造完成之后,我们可以检查决策树图形是否符合预期。
        4、训练算法:这个过程也就是构造决策树,同样也可以说是决策树学习,就是构造一个决策树的数据结构。
        5、测试算法:使用经验树计算错误率。当错误率达到了可接收范围,这个决策树就可以投放使用了。
        6、使用算法:此步骤可以使用适用于任何监督学习算法,而使用决策树可以更好地理解数据的内在含义。

    决策树构建的准备工作

      使用决策树做预测的每一步骤都很重要,数据收集不到位,将会导致没有足够的特征让我们构建错误率低的决策树。数据特征充足,但是不知道用哪些特征好,将会导致无法构建出分类效果好的决策树模型。从算法方面看,决策树的构建是我们的核心内容。决策树要如何构建呢?通常,这一过程可以概括为3个步骤:特征选择、决策树的生成和决策树的修剪。
      1、特征选择
      特征选择在于选取对训练数据具有分类能力的特征。这样可以提高决策树学习的效率,如果利用一个特征进行分类的结果与随机分类的结果没有很大差别,则称这个特征是没有分类能力的。经验上扔掉这样的特征对决策树学习的精度影响不大。通常特征选择的标准是信息增益(information gain)或信息增益比。
      我们选择信息增益作为选择特征的标准,首先来看一组实例,贷款申请样本数据表。

      希望通过所给的训练数据学习一个贷款申请的决策树,用于对未来的贷款申请进行分类,即当新的客户提出贷款申请时,根据申请人的特征利用决策树决定是否批准贷款申请。特征选择就是决定用哪个特征来划分特征空间。比如,我们通过上述数据表得到两个可能的决策树,分别由两个不同特征的根结点构成。



  •   图(a)所示的根结点的特征是年龄,有3个取值,对应于不同的取值有不同的子结点。图(b)所示的根节点的特征是工作,有2个取值,对应于不同的取值有不同的子结点。两个决策树都可以从此延续下去。问题是:究竟选择哪个特征更好些?这就要求确定选择特征的准则。直观上,如果一个特征具有更好的分类能力,或者说,按照这一特征将训练数据集分割成子集,使得各个子集在当前条件下有最好的分类,那么就更应该选择这个特征。信息增益就能够很好地表示这一直观的准则。
      什么是信息增益呢?在划分数据集之后信息发生的变化称为信息增益,知道如何计算信息增益,我们就可以计算每个特征值划分数据集获得的信息增益,获得信息增益最高的特征就是最好的选择。在之后的小节会举例着重说明特征选择。
      2、决策树的生成和修剪
      构建决策树的算法有很多,比如C4.5、ID3和CART,这些算法在运行时并不总是在每次划分数据分组时都会消耗特征。由于特征数目并不是每次划分数据分组时都减少,因此这些算法在实际使用时可能引起一定的问题。目前我们并不需要考虑这个问题,只需要在算法开始运行前计算列的数目,查看算法是否使用了所有属性即可。
      决策树生成算法递归地产生决策树,直到不能继续下去未为止。这样产生的树往往对训练数据的分类很准确,但对未知的测试数据的分类却没有那么准确,即出现过拟合现象。过拟合的原因在于学习时过多地考虑如何提高对训练数据的正确分类,从而构建出过于复杂的决策树。解决这个问题的办法是考虑决策树的复杂度,对已生成的决策树进行简化。

    【实验步骤】特征选择---香浓熵

      在可以评测哪个数据划分方式是最好的数据划分之前,我们必须学习如何计算信息增益。集合信息的度量方式称为香农熵或者简称为熵(entropy),这个名字来源于信息论之父克劳德·香农。熵定义为信息的期望值。在信息论与概率统计中,熵是表示随机变量不确定性的度量。如果待分类的事物可能划分在多个分类中,则符号xi的信息定义为:

      其中p(xi)是选择该分类的概率。
      通过上式,我们可以得到所有类别的信息。为了计算熵,我们需要计算所有类别所有可能值包含的信息期望值(数学期望),通过下面的公式得到:

  •   其中n是分类的数目。熵越大,随机变量的不确定性就越大。
      当熵中的概率由数据估计(特别是最大似然估计)得到时,所对应的熵称为经验熵。我们定义贷款申请样本数据表中的数据为训练数据集D,则训练数据集D的经验熵为H(D),|D|表示其样本容量,及样本个数。设有K个类Ck, = 1,2,3,...,K,|Ck|为属于类Ck的样本个数,因此经验熵公式就可以写为:



  •   根据此公式计算经验熵H(D),分析上节中贷款申请样本数据表中的数据。最终分类结果只有两类,即放贷和不放贷。根据表中的数据统计可知,在15个数据中,9个数据的结果为放贷,6个数据的结果为不放贷。所以数据集D的经验熵H(D)为:



  •   经过计算可知,数据集D的经验熵H(D)的值为0.971。

    【实验步骤】特征选择---编写代码计算经验熵

      在编写代码之前,我们先对数据集进行属性标注。
        年龄:0代表青年,1代表中年,2代表老年;
        有工作:0代表否,1代表是;
        有自己的房子:0代表否,1代表是;
        信贷情况:0代表一般,1代表好,2代表非常好;
        类别(是否给贷款):no代表否,yes代表是。
      确定这些之后,我们就可以创建数据集,并计算经验熵了,代码编写如下:

  • # -*- coding: UTF-8 -*-
    from math import log
    """
    Parameters:
        无
    Returns:
        dataSet - 数据集
        labels - 分类属性
    """
    def createDataSet():
        dataSet = [[0, 0, 0, 0, 'no'],         #数据集
                [0, 0, 0, 1, 'no'],
                [0, 1, 0, 1, 'yes'],
                [0, 1, 1, 0, 'yes'],
                [0, 0, 0, 0, 'no'],
                [1, 0, 0, 0, 'no'],
                [1, 0, 0, 1, 'no'],
                [1, 1, 1, 1, 'yes'],
                [1, 0, 1, 2, 'yes'],
                [1, 0, 1, 2, 'yes'],
                [2, 0, 1, 2, 'yes'],
                [2, 0, 1, 1, 'yes'],
                [2, 1, 0, 1, 'yes'],
                [2, 1, 0, 2, 'yes'],
                [2, 0, 0, 0, 'no']]
        labels = ['不放贷', '放贷']             #分类属性
        return dataSet, labels                #返回数据集和分类属性
    """
    函数说明:计算给定数据集的经验熵(香农熵)
    Parameters:
        dataSet - 数据集
    Returns:
        shannonEnt - 经验熵(香农熵)
    """
    def calcShannonEnt(dataSet):
        numEntires = len(dataSet)                        #返回数据集的行数
        labelCounts = {}                                #保存每个标签(Label)出现次数的字典
        #在下面添加代码,对每组特征向量进行统计,得到不同label的计数,并保存到labelCounts中
        countno=0
        countyes=0
        for temp in dataSet:
            if temp[-1]=='no':
                countno=countno+1
            else:
                countyes=countyes+1
            
        labelCounts={'不放贷':countno,'放贷':countyes}    
               
        shannonEnt = 0.0                                #经验熵(香农熵)
        #在下面添加代码,计算当前数据集基于labelCounts的经验熵,结果存放在shannonEnt中
        for i in labelCounts.values():
            shannonEnt=shannonEnt-i/(countno+countyes)*log(i/(countno+countyes),2)
        
        return shannonEnt                                #返回经验熵(香农熵)
    if __name__ == '__main__':
        dataSet, features = createDataSet()
        print(dataSet)
        print(calcShannonEnt(dataSet))

    运行结果如下:

  • [[0, 0, 0, 0, 'no'], [0, 0, 0, 1, 'no'], [0, 1, 0, 1, 'yes'], [0, 1, 1, 0, 'yes'], [0, 0, 0, 0, 'no'], [1, 0, 0, 0, 'no'], [1, 0, 0, 1, 'no'], [1, 1, 1, 1, 'yes'], [1, 0, 1, 2, 'yes'], [1, 0, 1, 2, 'yes'], [2, 0, 1, 2, 'yes'], [2, 0, 1, 1, 'yes'], [2, 1, 0, 1, 'yes'], [2, 1, 0, 2, 'yes'], [2, 0, 0, 0, 'no']]
    0.9709505944546686

 信息增益是相对于特征而言的,信息增益越大,特征对最终的分类结果影响也就越大,我们就应该选择对最终分类结果影响最大的那个特征作为我们的分类特征。在讲解信息增益定义之前,我们还需要明确一个概念,条件熵。
  条件熵H(Y|X)表示在已知随机变量X的条件下随机变量Y的不确定性,随机变量X给定的条件下随机变量Y的条件熵(conditional entropy)H(Y|X),定义为X给定条件下Y的条件概率分布的熵对X的数学期望:

  同理,当条件熵中的概率由数据估计(特别是极大似然估计)得到时,所对应的条件熵称为条件经验熵。
  信息增益是相对于特征而言的。所以,特征A对训练数据集D的信息增益g(D,A),定义为集合D的经验熵H(D)与特征A给定条件下D的经验条件熵H(D|A)之差,即:

设特征A有n个不同的取值{a1,a2,···,an},根据特征A的取值将D划分为n个子集{D1,D2,···,Dn},|Di|为Di的样本个数。记子集Di中属于Ck的样本的集合为Dik,即Dik = Di ∩ Ck,|Dik|为Dik的样本个数。于是经验条件熵的公式可以写为:

 以贷款申请样本数据表为例进行说明。看下年龄这一列的数据,也就是特征A1,一共有三个类别,分别是:青年、中年和老年。我们只看年龄是青年的数据,年龄是青年的数据一共有5个,所以年龄是青年的数据在训练数据集出现的概率是十五分之五,也就是三分之一。同理,年龄是中年和老年的数据在训练数据集出现的概率也都是三分之一。现在我们只看年龄是青年的数据的最终得到贷款的概率为五分之二,因为在五个数据中,只有两个数据显示拿到了最终的贷款,同理,年龄是中年和老年的数据最终得到贷款的概率分别为五分之三、五分之四。所以计算年龄的信息增益,过程如下:

  最后,比较特征的信息增益,由于特征A3(有自己的房子)的信息增益值最大,所以选择A3作为最优特征。

【实验步骤】特征选择---编写代码计算信息增益

我们已经学会了通过公式计算信息增益,接下来编写代码,计算信息增益。splitDataSet函数是用来选择各个特征的子集的,比如选择年龄(第0个特征)的青年(用0代表)的自己,我们可以调用splitDataSet(dataSet,0,0)这样返回的子集就是年龄为青年的5个数据集。chooseBestFeatureToSplit是选择选择最优特征的函数。运行代码结果如下:

# -*- coding: UTF-8 -*-

"""
函数说明:按照给定特征划分数据集,得到第axis维特征值为value的划分数据子集
Parameters:
    dataSet - 待划分的数据集
    axis - 划分数据集的特征
    value - 需要返回的特征的值
Returns:
    无
"""
def splitDataSet(dataSet, axis, value):       
    retDataSet = []             #创建返回的数据集列表
    #在下面添加代码,将dataSet中第axis维特征等于value的数据取出,存放入retDataSet
    #注意,为方便后面的计算,存放入retDataSet的每一组记录需要去掉axis特征
    for temp in dataSet:
        if temp[axis]==value:
            temp1=temp[0:axis]
            temp2=temp[axis+1:]
            temp1=temp1+temp2
            retDataSet.append(temp1)
    #print(retDataSet)
    return retDataSet     #返回划分后的数据集
"""
函数说明:选择最优特征
Parameters:
    dataSet - 数据集
Returns:
    bestFeature - 信息增益最大的(最优)特征的索引值
"""
def chooseBestFeatureToSplit(dataSet):
    numFeatures = len(dataSet[0]) - 1                    #特征数量
    baseEntropy = calcShannonEnt(dataSet)                 #计算数据集的香农熵
    bestInfoGain = 0.0                                  #信息增益
    bestFeature = -1 #最优特征的索引值
    L=len(dataSet)
    #print(L)
    for i in range(numFeatures):                         #遍历所有特征
        #获取dataSet的第i个所有特征
        featList = [example[i] for example in dataSet]
        uniqueVals = set(featList)                         #创建set集合{},元素不可重复
        newEntropy = 0.0                                  #经验条件熵
        #在下方添加代码,计算根据uniqueVals中的特征值划分的数据子集的条件熵,for循环中需要调用splitDataSet函数,结果记录到newEntropy中
        
        for temp in uniqueVals:
            no1=0
            yes1=0
            Di=splitDataSet(dataSet,i,temp)
            print(Di)
            d=len(Di)
            print(d)
            for tem in Di:
                if tem[-1]=='no':
                    no1=no1+1
                else:
                    yes1=yes1+1
            print(no1,yes1)        
            if no1!=0:
                newEntropy=newEntropy-d/L*no1/d*log(no1/d,2)
            if yes1!=0:
                newEntropy=newEntropy-d/L*yes1/d*log(yes1/d,2)
            print(newEntropy)
        
        infoGain=baseEntropy - newEntropy                     #信息增益
        print("第%d个特征的增益为%.3f" % (i, infoGain))            #打印每个特征的信息增益
        if (infoGain > bestInfoGain):                             #计算信息增益
            bestInfoGain = infoGain                             #更新信息增益,找到最大的信息增益
            bestFeature = i        #记录信息增益最大的特征的索引值
        #print(uniqueVals)
        #print(featList)    
    return bestFeature                                             #返回信息增益最大的特征的索引值
if __name__ == '__main__':
    dataSet, features = createDataSet()
    print("最优特征索引值:" + str(chooseBestFeatureToSplit(dataSet)))

 运行结果如下:

[[0, 0, 0, 'no'], [0, 0, 1, 'no'], [1, 0, 1, 'yes'], [1, 1, 0, 'yes'], [0, 0, 0, 'no']]
5
3 2
0.3236501981515562
[[0, 0, 0, 'no'], [0, 0, 1, 'no'], [1, 1, 1, 'yes'], [0, 1, 2, 'yes'], [0, 1, 2, 'yes']]
5
2 3
0.6473003963031124
[[0, 1, 2, 'yes'], [0, 1, 1, 'yes'], [1, 0, 1, 'yes'], [1, 0, 2, 'yes'], [0, 0, 0, 'no']]
5
1 4
0.8879430945988998
第0个特征的增益为0.083
[[0, 0, 0, 'no'], [0, 0, 1, 'no'], [0, 0, 0, 'no'], [1, 0, 0, 'no'], [1, 0, 1, 'no'], [1, 1, 2, 'yes'], [1, 1, 2, 'yes'], [2, 1, 2, 'yes'], [2, 1, 1, 'yes'], [2, 0, 0, 'no']]
10
6 4
0.6473003963031124
[[0, 0, 1, 'yes'], [0, 1, 0, 'yes'], [1, 1, 1, 'yes'], [2, 0, 1, 'yes'], [2, 0, 2, 'yes']]
5
0 5
0.6473003963031124
第1个特征的增益为0.324
[[0, 0, 0, 'no'], [0, 0, 1, 'no'], [0, 1, 1, 'yes'], [0, 0, 0, 'no'], [1, 0, 0, 'no'], [1, 0, 1, 'no'], [2, 1, 1, 'yes'], [2, 1, 2, 'yes'], [2, 0, 0, 'no']]
9
6 3
0.5509775004326938
[[0, 1, 0, 'yes'], [1, 1, 1, 'yes'], [1, 0, 2, 'yes'], [1, 0, 2, 'yes'], [2, 0, 2, 'yes'], [2, 0, 1, 'yes']]
6
0 6
0.5509775004326938
第2个特征的增益为0.420
[[0, 0, 0, 'no'], [0, 1, 1, 'yes'], [0, 0, 0, 'no'], [1, 0, 0, 'no'], [2, 0, 0, 'no']]
5
4 1
0.2406426982957874
[[0, 0, 0, 'no'], [0, 1, 0, 'yes'], [1, 0, 0, 'no'], [1, 1, 1, 'yes'], [2, 0, 1, 'yes'], [2, 1, 0, 'yes']]
6
2 4
0.6079610319175832
[[1, 0, 1, 'yes'], [1, 0, 1, 'yes'], [2, 0, 1, 'yes'], [2, 1, 0, 'yes']]
4
0 4
0.6079610319175832
第3个特征的增益为0.363
最优特征索引值:2
  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
当然可以!以下是一个使用C4.5决策树算法的简单代码示例: ```python import math def entropy(data): # 计算数据集的熵值 label_counts = {} for row in data: label = row[-1] if label not in label_counts: label_counts[label] = 0 label_counts[label] += 1 entropy = 0.0 for count in label_counts.values(): probability = count / len(data) entropy -= probability * math.log2(probability) return entropy def split_data(data, attribute, value): # 根据给定的属性和属性值划分数据集 subset = [] for row in data: if row[attribute] == value: reduced_row = row[:attribute] reduced_row.extend(row[attribute+1:]) subset.append(reduced_row) return subset def choose_best_attribute(data): # 选择最佳划分属性 num_attributes = len(data[0]) - 1 base_entropy = entropy(data) best_info_gain = 0.0 best_attribute = -1 for i in range(num_attributes): attribute_values = [row[i] for row in data] unique_values = set(attribute_values) new_entropy = 0.0 for value in unique_values: subset = split_data(data, i, value) probability = len(subset) / len(data) new_entropy += probability * entropy(subset) info_gain = base_entropy - new_entropy if info_gain > best_info_gain: best_info_gain = info_gain best_attribute = i return best_attribute def majority_count(labels): # 计算标签列表中出现次数最多的标签 label_counts = {} for label in labels: if label not in label_counts: label_counts[label] = 0 label_counts[label] += 1 sorted_labels = sorted(label_counts.items(), key=lambda x: x[1], reverse=True) return sorted_labels[0][0] def create_decision_tree(data, attributes): # 创建决策树 labels = [row[-1] for row in data] if labels.count(labels[0]) == len(labels): return labels[0] if len(data[0]) == 1: return majority_count(labels) best_attribute = choose_best_attribute(data) best_attribute_label = attributes[best_attribute] decision_tree = {best_attribute_label: {}} del(attributes[best_attribute]) attribute_values = [row[best_attribute] for row in data] unique_values = set(attribute_values) for value in unique_values: subset = split_data(data, best_attribute, value) decision_tree[best_attribute_label][value] = create_decision_tree(subset, attributes[:]) return decision_tree # 示例用法 data = [['青年', '否', '否', '一般', '否'], ['青年', '否', '否', '好', '否'], ['青年', '是', '否', '好', '是'], ['青年', '是', '是', '一般', '是'], ['青年', '否', '否', '一般', '否'], ['中年', '否', '否', '一般', '否'], ['中年', '否', '否', '好', '否'], ['中年', '是', '是', '好', '是'], ['中年', '否', '是', '非常好', '是'], ['中年', '否', '是', '非常好', '是'], ['老年', '否', '是', '非常好', '是'], ['老年', '否', '是', '好', '是'], ['老年', '是', '否', '好', '是'], ['老年', '是', '否', '非常好', '是'], ['老年', '否', '否', '一般', '否']] attributes = ['年龄', '有工作', '有自己的房子', '信贷情况'] decision_tree = create_decision_tree(data, attributes) print(decision_tree) ``` 希望这个简单的示例能帮助你理解C4.5决策树算法的实现!
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值