(LXTML笔记)Decision Tree

决策树也是有集成模型的形式,如图所示
这里写图片描述
如果以每一条路径为条件 qt q t ,叶子为最后的分类函数 gt g t (有时候是常数)的话,那么整棵树可以表示为 G(x)=Tt=1qtgt G ( x ) = ∑ t = 1 T q t ⋅ g t ,这是条件型集成模型的形式。更一般地,我们常常写成递归的形式,即

G(x)=c=1C[b(x)=c]Gc(x), G ( x ) = ∑ c = 1 C [ b ( x ) = c ] G c ( x ) ,

其中 b(x) b ( x ) 为分支方法, C C 为该节点的分支数量,Gc c c 分支对应的子树,那么要进行learning的话,涉及到下面几点
这里写图片描述

  1. 如何学习(定义)分支b(x);
    • 根据 b(x) b ( x ) 将主句分类;
    • 递归建立子树 Gc G c .
    • CART

      CART即 classification and regression tree,这是一种特殊的决策树,它的分支是2,是一颗二叉树,且底部叶子的分类函数 gt g t 返回的是一个最优的常数(如0/1 error时就返回 {yn} { y n } 中最多的那个,squared error的话就返回平均值,这些后面会讲到)。

      这里写图片描述

      我们如上图所示定义分支函数 b(x) b ( x ) ,其中这里的纯度impurity很好理解,实际就是一种误差的表达,比如
      这里写图片描述

      这样的情况下,树的生长在两种情况下回停止,
      这里写图片描述

      1. 所有的 yn y n 都相同,此时纯度为0,所以此时 gt=yn g t = y n
      2. 所有的 xn x n 都相同,所有的资料特征都相同,此时根本下不了刀

      我们称这样自动停止的树称为full-grown tree,显然根据上面的算法,这棵树迟早是完全体树的。
      这里写图片描述
      而对于完全体树,其 Ein=0 E i n = 0 ,由之前的课程我们知道,如果一个模型的 Ein=0 E i n = 0 ,那么肯定是付出很大的代价的,这里即几乎算完了每一种情况,所以我们应该对模型增加一些限制(正则化),这里限制的是叶子的数量。

      生成fully-grown tree G(0) G ( 0 ) 之后,我们定义最优目标

      argminallpossibleGEin(G)+λΩ(G), a r g m i n a l l − p o s s i b l e − G E i n ( G ) + λ Ω ( G ) ,

      G(1) G ( 1 ) 的意思是遍历所有的叶子,试着摘掉其中一个叶子(即合并二叉树节点的两个分支),看什么时候argmin最小,接着再合并第二次得到 G(2) G ( 2 ) ,如此下去,直到满足我们要求的叶子数量为止。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值