统计学习方法 5 - 决策树

  • 决策树:判别模型

  • 问题描述:假设要对一批样本分K类。其中这些样本又有A个特征。如何生成一个树形结构,按照特征一层一层往下分。
    在这里插入图片描述

  • 决策树生成思路:有A个特征可供分类,但是先选哪个特征作为分类标准呢?决策树为了解决这个问题,首先会判断该特征的对样本的区分能力,比如在男宿舍这样一个条件下判断谁有ipad,如果用性别作为一个特征来判断分类,收益很小;如果我们用生活费多少来判断,那么对这个分类就有很大的帮助。决策树这里用信息增益来判断特征Ai对分类的影响大小,先选择对分类区分度大的特征,在用其他特征依次往下分。

  • 信息增益:
    熵:混乱程度的度量
    一个随机变量的熵可以由其各种取值的概率定义为:
    H ( X ) = − ∑ i = 1 n p i l o g p i H(X) = -\sum_{i=1}^{n}p_{i}logp_{i} H(X)=i=1npilogpi
    信息增益:定义特征 A 对训练数据集 D 的信息增益 g (D,A),定义为 集合 D 的经验熵 H(D) 与特征 A 给定条件下 D 的经验条件嫡 H(D∣A) 之差,即
    g (D,A) = H(D) - H(D∣A)
    根据特征 A 的取值将 D 划分为n个子集 D 1 , D 2 , . . . , D n D_{1},D_{2},...,D_{n} D1,D2,...,Dn
    在这里插入图片描述

  • 信息增益比:
    在这里插入图片描述
    分母表示以特征A代替类别在数据集上计算熵。

决策树生成算法:

  • ID3算法:以信息增益为特征判断标准
  • C4.5:以信息增益比为特征判断标准
    决策树剪枝算法:
  • 剪枝原因:分类分的太细,对训练数据拟合很好,但是对未知数据的分类效果不好,也就是过拟合。考虑了树的复杂度因素。
  • 先剪枝(也就是在生成过程中剪枝):
    设定决策树高度,到高度了停止继续分
    设定叶节点包含的最小样本数
    计算每增一个节点对系统带来的性能,设定阈值予以停止
  • 后剪枝(先生成完整的树再剪枝):
    计算剪枝前后的损失函数,比较观察是否剪枝。
    还有多种剪枝算法。

归纳
参考:
https://blog.csdn.net/Smile_mingm/article/details/108386197?spm=1001.2014.3001.5501

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值