算法总结(四)关于决策树和随机森林

学习资源

《机器学习》周志华 第四章

https://www.cnblogs.com/fionacai/p/5894142.html fionacai博客

https://www.jianshu.com/p/708dff71df3a mrlevo520博客

                                                                                                                                       

在学习softmax的时候,我们了解了交叉熵,在决策树中,需要用到熵,信息增益,信息增益率,这是生成结点的核心知识

决策树分类器的生成过程:

  1. 首先是把分类属性生成一个根节点
  2. 选取条件熵最大的特征作为下一节点,并根据特征属性值生成叶节点
  3. 重复第二过程,直至特征运用完成

一些问题

  • overfitting

分类和回归的问题不可避免的会碰到过拟合的问题,在决策树里面的解决办法就是利用预剪枝和后剪枝两种方法,剪枝均是利用验证集对形成的叶节点验证,如果有必要,保留,没必要,删除,具体的算法可以查看《机器学习》这本书

  • 特征值的选取

特征值的选取有多种方式,可以利用信息增益或者信息增益率,不过后来有人提出了利用基尼指数进行选取(CART决策树)

  • 连续值和缺失值的问题

首先对于连续值,即我们的划分结果为连续值,则可以利用二分法进行分类

对于缺失值,处理要复杂一些,可以查看https://www.cnblogs.com/ljygoodgoodstudydaydayup/p/7418851.html

然后我们看看关于随机森林,总体来讲就是以一定的抽样方法进行抽样建立决策数,多次抽样之后形成多个决策树,就形成了随机森林,在预测的时候,就看看各个模型的投票,最终决定它的分类,当然这里面有许多细节问题,等用到的时候再好好考虑吧

 

 

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值