机器学习算法之:决策树 (decision trees)

本文深入探讨了决策树的学习过程,包括特征选择、信息增益、决策树建立和剪枝。通过信息熵和信息增益度量特征的重要性,采用ID3算法建立决策树,并提供Python代码实现。在实验中,对连续数据进行离散化处理以适应决策树模型。最终在'adults'数据集上测试,得到约78.3%的准确率,指出连续特征离散化程度和剪枝对模型性能的影响。
摘要由CSDN通过智能技术生成
> By joey周琦

概述

  • 线性模型一般variance小,bias大;而树模型一般variance大,bias小
  • 决策树的优点:具有可读性,分类速度快
  • 一般包含三个步骤:
    • 特征选择
    • 决策树生成
    • 剪枝
  • 决策树定义:分类决策树模型是一种描述对实例进行分类的树形结构。决策树由结点(node)和有向边(directed edge)组成。结点分为内部结点和叶结点,内部结点表示一个特征(feature),外部结点表示一个类。
    • 决策树可以看为一个if-then规则集合,具有“互斥完备”性质

决策树学习

假设有数据集

D={ (x1,y1),(x2,y2),...(xN,yN)}

其中 xi=(x1i,x2i,...xni) , 为输入特征向量,n为特征的数目.
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值