python实现决策树算法并绘图

本文不探讨决策树算法原理,主要通过Python代码详细讲解如何实现ID3决策树,包括计算熵、划分数据集、选择最佳划分特征、数据分类、构建决策树及测试过程,并展示决策树的绘制方法。
摘要由CSDN通过智能技术生成

本文不涉及决策树算法的原理,只通过python代码实现算法,并且没有用到机器学习库,根据算法流程一步一步实现。

决策树

本文使用ID3算法实现决策树。

计算熵

首先是计算香农熵,需要了解计算公式

# 计算数据集的香农熵
def ent(data):
    num = len(data)  # 数据的数量
    count = {
   }
    # 计算标签数量
    for d in data:
        label = d[-1]   # 获得数据标签
        if label not in count.keys(): count[label] = 0    # 增加数据标签
        count[label] += 1
    entropy = 0.0
    # 计算熵
    for key in count:
        prob = float(count[key]) / num
        entropy -= prob * math.log(prob, 2) #log base 2
    return entropy

划分数据集

根据特征和值,得到数据子集

# 划分数据集
def splitData(data, axis, value):
    set = []
    for d in data:
        # 发现符合特征的数据
        if d[axis] == value:
            # 删除axis以外的特征
            newD = d[:axis]     
            newD.extend(d[axis + 1:])
            # 加入数据集
            set.append(newD)
    return set

选择最好的划分方式

找到最好划分的特征

# 选择最好的数据集划分方式
def bestSplit(data):
    num = len(data[0]) - 1  # 特征的数量
    entropy = ent(data)             # 现在的信息熵
    bestInfoGain = 0.0              # 最佳信息增益
    bestFeature = -1                # 最佳划分特征
    # 遍历每个特征
    for i in range(num): 
        list = [d[i] for d in data] # 特征列表
        value = set(list)          # 特征值集合,每个值只有一个
        newEntropy = 0.0
        # 遍历每个特征值,划分数据
        for v in value:
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值