机器学习【算法岗面试总结2】----树模型

2.1 决策树的四种基本形态

目前主要流行的决策树包含以下四种情况

树名称特征选择方法树的分支树涉及到的计算节点分类
ID3信息增益选择出的特征,每个值做一个分支只要计算每个特征的信息增益依次选择信息增益值最大的特征进行节点分裂
C4.5信息增益比选择出的特征,每个值做一个分支只要计算每个特征的信息增益比依次选择信息增益比最大的特征进行节点分裂
Cart分类树基尼系数二叉树计算每个特征在不同阈值时的基尼系数计算出基尼系数分支最高的特征和分裂节点,对当前的父节点进行分裂。下次分裂时重新计算每个特征和对应节点的基尼系数
Cart回归数平方误差二叉树计算每个特征在不同阈值时的平方误差这里计算每个特征对应不同分裂点的平方误差,选择最小平方误差的特征和节点作为当前父节点的分裂,下次分类时重新计算平方误差

涉及到的计算公式

①信息熵

②信息增益

③信息增益比

④基尼系数

⑤平方误差

2.2 决策树两种剪枝方法(预剪枝和后剪枝)

      剪枝的目的是为了降低模型的精度,减少过拟合,符合奥卡姆剃刀原理。分为预剪枝(pre-pruning)和后剪枝(post-pruning)。预剪枝是在决策树生成时限制树的生长,防止树过度生长而导致过拟合。常用方法有:限制树的深度、限制树的叶子结点数、设置分裂时增益的阈值(低于阈值就不继续分裂)。相比预剪枝,后剪枝使用更广泛。主要有:降低错误率剪枝:(Reduce-Error Pruning:REP )、悲观剪枝(Pessimistic-Error Pruning)、代价复杂度剪枝(Cost-Complexity Pruning)、基于错误的剪枝(Error-Based Pruning)

2.3 决策树的四个最常见集成算法(RF、GBDT、XGBoost、LightGBM)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值