决策树(一)

决策树(Decesion Tree)是一个树结构(可以是二叉树或非二叉树)

其每个非叶节点表示一个特征属性上的测试,每个分支代表这个特征属性在某个值域上的输出,而每个叶节点存放一个类别。

使用决策树进行决策的过程就是从根节点开始,测试待分类项中相应的特征属性,并按照其值选择输出分支,直到达到叶子节点,将叶子节点存放的类别作为决策结果。

总结来说,决策树模型核心是下面几部分:
- 结点和有向边组成
- 结点有内部结点和叶节点俩种类型
- 内部结点表示一个特征,叶节点表示一个类。

下面通过ID3,C4.5 和CART算法对决策树算法做一个详细的介绍。

机器学习算法其实很古老,作为一个码农你会不停的敲if,else,if,其实你就已经在用决策树的思想了。只是你有没有想过,有这么多条件,只是你有没有想过,这么多条件,用哪个条件特征先做if,哪个条件特征后做if比较优呢?怎么准确的定量选择这个标准就是决策树算法的关键了。20世纪70年代,一个叫做昆兰的大牛找到了用信息论中的熵来度量决策树的决策选择过程,方法一出就引起了轰动。这个算法就是叫做ID3算法。

首先我们需要熟悉信息论中熵的概念。熵度量了事物的不确定性,越不确定的事物,它的熵越大。具体的,随机变量X的熵表达式如下:
\begin{equation}
H(x) = - \sum_{i=1}^n p_i log p_i
\end{equation}
其中,n代表X的n种不同的离散取值。而\(p_i\)代表了X取值为i的概率,log为以2或者e为底的对数。举个例子,比

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值