[机器学习实战] 阅读第六章

决策树

决策树模型:https://blog.csdn.net/az9996/article/details/86555029

CRAT 训练算法

公式6-2:CART分类成本函数

在这里插入图片描述

基尼不纯度、信息熵

默认使用的是基尼不纯度来进行测量,但是,你可以将超参数criterion设置为"entropy"来选择信息熵作为不纯度的测量方式。熵的概念源于热力学,是一种分子混乱程度的度量:如果分子保持静止和良序,则熵接近于零。后来这个概念传播到各个领域,其中包括香农的信息理论,它衡量的是一条信息的平均信息内容:[1]如果所有的信息都相同,则熵为零。在机器学习中,它也经常被用作一种不纯度的测量方式:如果数据集中仅包含一个类别的实例,其熵为零。公式6-3显示了第i个节点的熵值的计算方式。

公式6-3:信息熵

在这里插入图片描述

回归

公式6-4:CART回归成本函数

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值