【算法】CART算法树 -- 猫头鹰的理解思路

CART算法树前言

尽量用猫头鹰小盆友能理解的思维来解释和记录这一算法。概念和原理不一一再重复介绍了,很多好的链接已经说的很仔细了,此文是写给那些像我一样的小白,即使看了别人写的还是没法明白那西格玛公式以及各种算法,所以用了猫头鹰小盆友举例法来尝试白话文it,最后写的比较乱,毕竟还是自己的草稿,自己理解了就懒得继续往下写了,Impurity推理公式花的时间最多,因为当时自己不理解,后续会更新一个案例使用手写CART算法树来处理MNIST数据集,代码会更新在Github上。

决策树系列算法比较

决策树算法中,

  • ID3使用信息增益(选大的)
  • C4.5使用信息增益比(选大的)
  • CART使用Gini(选小的)

原数据 + 需求 举例

按照AI处理主流流程,分三步:

  • 原数据 + 模型 (此处我们采用CART)+ 需求(要解决的问题)

给出特征 和 最终Label ,使用CART实现最终分类。

  1. 原数据,特征是Color 和Diameter, 最终Label是结果
    在这里插入图片描述

  2. Cart模型解决问题的架构思路 (造一个树把原数据分类,最终叶子节点就是所有原数据)

  3. 思考:

  • 有什么问题可以当做决策树的判断? (所有特征里distinct的值)
  • 问题都有了,按照什么样的顺序问效率最好(Information Gain最大)
  • Information Gain 是什么? (Information Gain= 上一层的Impurity - 下一层的Impurity的平均值)

大致Workflow

  1. 获取不同问题后下一层的Impurity的平均值
    在这里插入图片描述
    在这里插入图片描述
  2. 比较所有问题,使用Gain最大的一直作为决策条件在这里插入图片描述
  3. 递归直至Impurity = 0

核心公式

对于任意一个含有 j j j 个不同类别 label 的集合, p i pi pi 表示第 i i i 种类别的元素占比(抽中概率), i ∈ { 1 , 2 , . . , j } i \in \{1, 2, .., j\} i{ 1,2,..,j} ,于是我们的基尼不纯度公式如下:

i m p u r i t y = 1 − ∑ i = 1 j p i 2 impurity = 1 - \sum_{i=1}^j p_i^2 impurity=1i=1jpi2

或者写成 g i n i gini gini 代替 , i m p u r i t y impurity impurity 都是一个意思。

有的地方写的是 g i n i = ∑ i = 1 j p i ( 1 − p i )

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值