决策树QA

QA

1. 采⽤信息增益、信息增益率作为决策树⽣⻓策略,有什么区别;

信息增益( ID3算法 )

计算使用所有特征划分数据集D,得到多个特征划分数据集D的信息增益,从这些信息增益中选择最大的,因而当前结点的划分特征便是使信息增益最大的划分所使用的特征。
不足:
a)ID3没有考虑连续特征,⽐如⻓度,密度都是连续值,⽆法在ID3运⽤。
b)ID3采⽤信息增益⼤的特征优先建⽴决策树的节点。在相同条件下,取值⽐较多的特征⽐取值少的特征信息增益⼤。
c) ID3算法对于缺失值的情况没有做考虑
d) 没有考虑过拟合的问题

信息增益率( C4.5算法 )

是在信息增益的基础之上乘上一个惩罚参数。特征个数较多时,惩罚参数较小;特征个数较少时,惩罚参数较大。
不足:
1)由于决策树算法⾮常容易过拟合,因此对于⽣成的决策树必须要进⾏剪枝。
2)C4.5⽣成的是多叉树,即⼀个⽗节点可以有多个节点。
3)C4.5只能⽤于分类,如果能将决策树⽤于回归的话可以扩⼤它的使⽤范围。
4)C4.5由于使⽤了熵模型,⾥⾯有⼤量的耗时的对数运算,如果是连续值还有⼤量的排序运算。

对比:

采⽤信息增益作为决策树⽣⻓策略的ID3算法不支持连续值处理、缺失值处理、剪枝。
相反,采⽤信息增益作为决策树⽣⻓策略的C4.5算法支持连续值处理、缺失值处理、剪枝。

2. 其他条件⼀致,对样本某变量进⾏单调⾮线性变化,是否会影响决策树⽣⻓,为什么;

不会

3. 随机森林参数有哪些重要的参数,分别的作⽤试什么?

RF框架参数:
n_estimators:对原始数据集进⾏有放回抽样⽣成的⼦数据集个数,即决策树的个数。
bootstrap:是否对样本集进⾏有放回抽样来构建树,True表示是
oob_score:是否采⽤袋外样本来评估模型的好坏,True代表是
RF决策树参数:
max_features:构建决策树最优模型时考虑的最⼤特征数。默认是"auto"
max_depth:决策树最⼤深度。
min_samples_leaf:叶⼦节点含有的最少样本。默认值是1。
min_samples_split:节点可分的最⼩样本数,默认值是2。
max_leaf_nodes:最⼤叶⼦节点数。int设置节点数,None表示对叶⼦节点数没有限制。
min_impurity_decrease:节点划分的最⼩不纯度。
criterion:表示节点的划分标准。不纯度标准参考Gini指数,信息增益标准参考"entrop"
min_samples_leaf:叶⼦节点最⼩的样本权重和。默认是0。

4. 多个模型预测结果做Average融合,模型间具备怎样的特点会取得更好的效果?

模型间的预测误差的关联性越低,效果越好。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值