cart算法_决策树(二)ID3、C4.5算法,CART算法

f11dd704d44992e6357b57b251818cf4.png

Email:ht0909@mail.ustc.edu.cn

原创内容,转载请标明,本文主要介绍CART的剪枝部分,其他内容比较简单

参考:《统计学习方法》李航


一. ID3和C4.5算法

ID3算法的核心是在决策树各个结点上应用信息增益准则选择特征

C4.5算法是应用信息增益比来选择特征

信息增益的相关知识可参考我的另一篇文章,不过多阐述

黑夜不再来:决策树(一)熵、条件熵、信息增益​zhuanlan.zhihu.com
196c6ba750631e759e44ffb627eadbc6.png

二.CART算法

CART生成分为回归树的生成和分类树的生成,对回归树用平方误差最小化准则,对分类树用基尼指数最小化准则,进行特征选择,生成二叉树

  • 回归树生成

可参考下面这个博客

https://blog.csdn.net/weixin_40604987/article/details/79296427​blog.csdn.net

选择第j个变量x(j)和它取得值s,作为切分变量,将输入空间切分为两个区域,分别在两个区域内求均值

然后再求平方误差

629c012582198db3bfbae7ee1d1be04b.png

寻找最小平方误差的变量和切分值即可。

db9070e7cbe499240e8211704d9bae62.png
  • 分类树生成

CART分类树生成采用基尼指数选择最优特征,同时决定该特征的最优二值切分点

0fe1a39abf500ea46a51f7eb87029792.png

f4cdc46fc3928f8d2f02b3c6d9e7dee7.png

CART剪枝

先参考《统计学习方法》

CART剪枝算法由两步组成:首先从生成算法产生的决策树

低端开始不断剪枝,直到
的根节点,形成一个子树序列
;然后通过交叉验证法在独立的验证数据集上对子树序列进行测试,从中选择最优子树。

这里的关键就在于如何剪枝得到合适的子树序列。

d002615e10a3a1be1c8b7ffa19cb3c17.png

dae5624278e32dc27873b764a112918e.png

这是代价复杂度剪枝的核心思想

我们每次剪枝剪的都是某个内部节点的子节点,也就是将某个内部节点的所有子节点回退到这个内部节点里,并将这个内部节点作为叶子节点。因此在计算整体的损失函数时,这个内部节点以外的值都没变,只有这个内部节点的局部损失函数改变了,因此我们本需要计算全局的损失函数,但现在只需要计算内部节点剪枝前和剪枝后的损失函数。

ac81c041f40f4ece04082949eb1d61de.png

3b08832e1ae43eae7029cc1d4633834c.png

6e14034c6134a5cb0daaaa9dcd006348.png

aa7b06f7836ced46269dbefe814ce835.png

课后习题5.4:

479a65f3cbd61b85c2f30417cf235324.png

39e4cff8e4b7fead133c7a1f615d094d.png
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值