机器学习笔记之十九——决策树的损失函数(补充)

  决策树生长的核心在于如何选择最优特征作为当前结点分割的特征

  当决策树如此生长完成后,对训练集程度会很好,但是对测试集一般都会出现高方差、过拟合的现象,如何预防这种现象,就是之前提到的预剪枝、后剪枝方法。

  而剪枝过程换个方法来讲,其实就是在优化降低Loss function的的过程。

  Loss function

    设决策树T的叶节点个数为|T|t是树T的叶节点,该叶节点有N_t个样本点,其中 k 类的样本点有N_{tk}个,k=1,2,\cdot \cdot \cdot ,K,

H_t(T)为该叶节点的信息熵,\alpha \geq 0为参数,则决策树学习的损失函数可以定义为:

                                          C_a(T)=\sum ^{|T|}_{t=1}N_tH_t(T)+\alpha |T|                                 -----------李航,《统计学习方法》

公式翻译过来,就是每个叶子节点的 样本点数量 * 该结点的信息熵,再加上一个正则项。

优化之……

  • 2
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值