Decision Tree

Representation

这里写图片描述

Learning

这里写图片描述

Expressiveness(and,or,xor)

这里写图片描述

size of hypothesis set

这里写图片描述
结论:
- hypothesis space is very expressive because there’s lots of different functions that you can represent
- should have some clever way to search among them

Learning Algorithm

这里写图片描述
熵(直观认识):measure of information,randomness

P(A) = 1 :no information,no randomness,no entropy(entropy = 0)

均匀划分时:它们的熵会是最大的

在此不进行展开,将在randomize optimization 中详细介绍

e.g.

这里写图片描述
图一图二的entropy没有改变

图三中俩个子集的entropy都减小了,在该例子中,减为0
相应的,它的信息熵的增量是最大的

bias

hypothesis set: all possible decision tree

two kind of biases
- Restriction bias:H
- Preference bias:
- what source of hypothesis from this hypothesis set we prefer

这里写图片描述

Other considerations

这里写图片描述

对于存在的噪音该如何处理?

overfitting
- pruning

这里写图片描述
对离散型特征:没有意义
对连续型特征:
- 不同的问题(范围):有意义

这里写图片描述

Conclusion

这里写图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值