Python 决策树算法原理及实现

决策树算法

决策树算法是一种逼近离散函数值的方法。它是一种典型的分类方法,首先对数据进行处理,利用归纳算法生成可读的规则和决策树,然后使用决策对新数据进行分析。本质上决策树是通过一系列规则对数据进行分类的过程。

决策树算法构造决策树来发现数据中蕴涵的分类规则.如何构造精度高、规模小的决策树是决策树算法的核心内容。决策树构造可以分两步进行。第一步,决策树的生成:由训练样本集生成决策树的过程。一般情况下,训练样本数据集是根据实际需要有历史的、有一定综合程度的,用于数据分析处理的数据集。第二步,决策树的剪技:决策树的剪枝是对上一阶段生成的决策树进行检验、校正和修下的过程,主要是用新的样本数据集(称为测试数据集)中的数据校验决策树生成过程中产生的初步规则,将那些影响预衡准确性的分枝剪除。

 

基本思想

序号

是否大学生

是否常去图书馆

是否经常参加竞赛

是否优秀

1

2

3

4

5

6

7

8

9

10

 

 

 

 

 

 

 

 

 

 

 

 

步骤一、先计算数据集D的信息熵H(x),数据集D的信息熵,即在仅仅只知道类别属性的基础上的信息熵。数据记录有10条,是否优秀属性值为“是”的有5条,为“否”的5条。

总信息熵H(x)=-5/10*log2(5/10)-5/10*log2(5/10)=1

这个数值就是告诉我们,是否优秀这个不确定性为1,那么假设有人可以告诉你说:如果我告诉你一列属性值(和目标分类属性相关的属性值),那么你的这种不确定性又是多少呢?

 

步骤二、计算知道各个属性的前提下,数据集D的信息熵

比如知道了年龄是否大学生属性:在是大学生的特征下,有优秀的,也有不优秀的,那么总共有5个优秀,2个不优秀的;

而在不是大学生的特征下,有优秀的,也有不优秀的,那么总共有0个优秀,3个不优秀的;

H(x|大学生)=-7/10(5/7*log2(5/7)+2/7*log2(2/7))

-3/10(0/3*log2(0/3)+3/3*log2(3/3))=0.604

同理,会算出:

H(x|图书馆),H(x|经常参加竞赛)

H(x|图书馆)=-7/10(3/7*log2(3/7)+4/7*log2(4/7))

-3/10(2/3*log2(2/3)+1/3*log2(1/3))=0.965

H(x|经常参加竞赛)=-6/10(2/6*log2(2/6)+4/6*log2(4/6))

-4/10(1/4*log2(1/4)+3/4*log2(3/4))=0.875

 

步骤三、计算哪个的信息增益大

Gain(大学生)=H(x)-H(x|大学生)=value1=0.396

Gain(图书馆)=H(x)-H(x|图书馆)=value2=0.035

Gain(经常参加竞赛)=H(x)-H(x|经常参加竞赛)=value3=0.125

value1>value3>value2,然后根据这个结果选取“大学生”属性最为最先分类的属性。

根据大学生属性值分类之后,那么接下来数据集重新进行了划分,由重复上述步骤进行下一个分裂属性的查找。

直到到所有的特征都用完了,二是划分后额信息增益足够小,那么决策树的生长就可以停止了,最终构成一颗决策树!

 

具体代码:

import numpy as np

import xlrd


#设置数据读取路径

path='C://Users//xiaoxiannv//Desktop//tree.xlsx'


#xlrd打开数据

data=xlrd.open_workbook(path)



#读取excel的sheet

sheet1=data.sheet_by_name('Sheet1')



#原始数据放入二维数组中去

nrows=sheet1.nrows

ncols=sheet1.ncols



#初始化得到与data set相同行,列的二维数组

dataMatrix=np.zeros((nrows-1,ncols),dtype=str)



#数据放入初始化的二维数组中

for i in range(1,nrows):

    dataMatrix[i-1,:]=sheet1.row_values(i)



#数值化

for  i in range(nrows-1):

    temp=dataMatrix[i,:]

    temp[temp=='是']=1

    temp[temp=='否']=0

    dataMatrix[i,:]=temp

#强制转换矩阵为int

dataMatrix=dataMatrix.astype('int')



#算法 第一步

targetAtr=dataMatrix[:,-1]



#计算原始数据集的信息熵

def calcuEntropy(ta):

    zeros=sum(ta==0)

    ones=sum(ta==1)

    sm=zeros+ones

    p0=zeros/sm

    p1=ones/sm

    if(p0==0):

        p0=1

    elif(p1==0):

        p1=1

    return -p0*np.log2(p0)-p1*np.log2(p1)



#计算加入某先验特征属性后的信息熵(也就是加入某一个知识后的信息不确定性)

entropy2=dataMatrix[:,-1]#是否优秀

entropy1=dataMatrix[:,1]#大学生

entropy3=dataMatrix[:,2]#图书馆

entropy4=dataMatrix[:,3]#竞赛



newMt=np.array([entropy1,entropy2])

newMt=np.transpose(newMt)

newMt1=np.array([entropy3,entropy2])

newMt1=np.transpose(newMt1)

newMt2=np.array([entropy4,entropy2])

newMt2=np.transpose(newMt2)

#print(newMt)



def lastEntropy(data):

    #数据传进来,根据引入属性值的多少来进行数据划分

    #比如引入第一列属性,总共有“是”“否”两类值,也就是根据“是”“否”把数据集划分为两类

    nrows,ncols=data.shape;

    yesList=[]

    noList=[]

    for i in range(nrows):

        if(data[i,0]==1):

            yesList.append(data[i,:])

        else:

            noList.append(data[i,:])

    #根据“是”“否”把数据集划分为两类yesMatrix,noMatrix

    yesMatrix=np.array(yesList)

    noMatrix=np.array(noList)

   

    #统计“是”的数据集有多少个

    yM=yesMatrix.shape[0]

    #统计“否”的数据集有多少个

    nM=noMatrix.shape[0]

   

    #计算各个数据集的占比,比如“是”数据集占总数据百分比,“否”数据集占总数据百分比

    sM=yM+nM

    yPercent=yM/sM

    nPercent=nM/sM

   

    #print(yesMatrix[:,-1])

    #print(noMatrix[:,-1])

    #计算在引入属性知识之后,“是”数据集下是信息熵(也就是引入新知识后的不确定性)

    yEntropy=calcuEntropy(yesMatrix[:,-1])

    nEntropy=calcuEntropy(noMatrix[:,-1])

   

    print("\nyEntropy "+str(yEntropy))

    print("nEntropy "+str(nEntropy))

  

    #计算总的信息熵

    return yPercent*yEntropy+nPercent*nEntropy



values=calcuEntropy(targetAtr)-lastEntropy(newMt)

values1=calcuEntropy(targetAtr)-lastEntropy(newMt1)

values2=calcuEntropy(targetAtr)-lastEntropy(newMt2)



print('大学生的信息熵为:',lastEntropy(newMt))  

print('图书馆的信息熵为:',lastEntropy(newMt1))

print('竞赛的信息熵为:',lastEntropy(newMt2),'\n')



#print(calcuEntropy(targetAtr))

#print(dataMatrix)



#比较信息熵大小

if values>values1:

    if values1>values2:

        print('values>values1>values2,选取“大学生”属性最为最先分类的属性')

    else:

        if values>values2:

            print('values>values2>values1,选取“大学生”属性最为最先分类的属性')

        else:

            print('values2>values>values1,选取“竞赛”属性最为最先分类的属性')

elif values<values1:

    if values1<values2:

        print('values2>values1>values,选取“竞赛”属性最为最先分类的属性')

    else:

        if values2>values:

            print('values1>values2>values,选取“图书馆”属性最为最先分类的属性')

        else:

            print('values1>values>values2,选取“图书馆”属性最为最先分类的属性')

 

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值