【机器学习】- 极简系列 - 决策树

前置知识:

1、熵、条件熵、信息增益
熵与条件熵的定义为:
在这里插入图片描述
在这里插入图片描述

熵能表示随即变量的不确定性。根据等价无穷小的有:logx->x-1,xlogx->x(x-1)。基于此来验证下面的公式可以看出,当p为0或者1的时候,熵最下=0。这符合我们对不确定性的理解。实际上,对于一个二分类问题有:

在这里插入图片描述
在这里插入图片描述

2、基尼指数
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

第一部分:决策树

1.1 特征选择

ID3:最大化的信息增益。
C4.5:最大化信息增益比。

1.2 决策树的生成

递归的进行特征选择
在这里插入图片描述
在这里插入图片描述

1.3 剪枝 在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

第二部分 CART

CART算法假设决策树是二叉树。
在这里插入图片描述

2.1 回归树

在这里插入图片描述
在这里插入图片描述

算法理解:
遍历所有的切分变量与切分点,每一次确定一种划分后:根据公式计算响应的平方差的和,最小值对应的切分变量与切分点就是最佳值。继续在子集上进项相同的操作,知道满足停止条件。

2.2 分类树

在这里插入图片描述

算法理解:类似于会归属,需要选择最佳的切分变量与切分点,区别在于回归树用最小二乘法选择,而分类树用基尼指数选择。

小结:决策树算法考量不同特征划分数据集带来的信息增益,不会考虑切分点,所以假如特征有M个候选值,那么就会有M叉,但是CART算法考虑切分变量+切分点的最佳组合,所以生成的是二叉树。
在这里插入图片描述

例题:

ID3决策树
CART回归树
CART决策树

参考:《统计学习方法》

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值