8.22 数据挖掘(6)

1.决策树的收敛
收敛从叶结点开始,向上收敛,少数服从多数。
这里写图片描述

2.熵的偏差
最下面是一个惩罚公式,分子是information gain,而分母是分裂的特征个数,作为一种有效的惩罚措施。
比如,单纯的按生日辨别男女,information gain很大,entrpy为0,但是这给系统一个错误的细化特征的倾向,实际上,每个人一条规则肯定是不合适的。
这里写图片描述

3.在决策树模型中,校验集的用途是用于控制对模型的剪枝操作。

4.分类,设置门槛(决策树模型中应如何妥善处理连续型属性)
A和B哪个更适合门槛?计算一下就知道
这里写图片描述

5.决策树的其他学习材料
这里写图片描述

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值