决策树学习总结

决策树总结

【写在最前面】
emmmm,课堂笔记的一个总结吧算是。
有任何问题请评论,求轻喷。

决策树是是分类问题中最常用的模型之一,它的优势在于:
  ①能够接受类别型的特征,
  ②分类效果与其他分类算法相当,
  ③训练和测试的效率高。
决策树模型呈树形结构,在分类问题中,表示基于特征对实例进行分类的过程。决策树学习通常包括三个步骤:特征选择决策树的生成决策树的修剪。决策树学习常用的算法有ID3、C4.5和CART。

决策树学习

决策函数

Alt text
决策树由中间节点和叶子节点构成,中间节点包含决策函数用于决策的特征,叶子节点包含决策结果和类别标签。
对于给定的训练数据,可能存在多棵能够拟合数据的决策树。比如在上图的决策树中,第一层节点用于决策的特征不是Age而是Own_house。如何进行选择?我们需要的是一个与训练数据矛盾较小的决策树,同时具有很好的泛化能力。由于从所有可能的决策树中选取最优决策树是NP完全问题,不能够在多项式时间中找出最优解,因此决策树学习算法通常采用启发式方法来建立次优决策树。

决策树训练算法

使用贪心分治算法来构建决策树,假设所有的特征都是类别型特征,自顶向下递归建树,初始状态为所有训练数据都在根节点上。选择一个最优的特征将训练数据划分成子集,使得各个子集有一个在当前条件下最好的分类。终止条件为:①节点上训练样本都属于同一个类别,②节点上没有训练样本,③没有更多的特征可供选择。
Alt Text

特征选择

这里主要来究竟选择哪个特征更好一些?需要选择合适的特征进行决策,划分数据,生成子节点。“合适”指的是尽量大的减少划分后子数据集的混杂度(尽可能使同一个类别的数据分到同一个子节点中)。我们用熵来度量混杂度。

**熵(entropy)**是表示随机变量不确定性的度量。随机变量 X X X是一个取有限个值的离散随机变量,其概率分布为:
P ( X = x i ) = p i , i = 1 , 2 , . . . n P(X=x_i)=p_i,i=1,2,...n P(X=xi)=pi,i=1,2,...n
则随机变量 X X X的熵定义为:
H ( X ) = − ∑ i = 1 n p i l o g p i H(X)=-\sum^n_{i=1} p_i log p_i H(X)=i=1npilogpi
均匀分布时熵最大,确定分布时熵最小。 (所以需要计算当前条件下使得熵最小的特征)
123

条件熵

设有随机变量 ( X , Y ) (X,Y) (X,Y),其联合概率分布为:
P ( X = x i , Y = y i ) = p i j , i = 1 , 2 , . . . , n ; j = 1 , 2 , . . . , m P(X=x_i,Y=y_i)=p_{ij}, i=1,2,...,n; j=1,2,...,m P(X=xi,Y=

  • 0
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值