【一起入门MachineLearning】中科院机器学习-期末题库-【计算题5+单选题19,20+简答题21】

这系列的题目来源于周晓飞老师期末发的题库,自留做复习用的🎉 🎉 🎉 加油加油!

知识点可以参考博主的这篇文章
【一起入门MachineLearning】中科院机器学习第*课-非线性分类:决策树

单选题19

在这里插入图片描述

  • A:非纯度用来描述决策树的分类结果,非纯度越大说明分类结果越不好,所以非纯度应该是越小越好,等于0代表只有1类,使我们期待的结果。A错误。
  • B:信息增益是用来描述“熵变小”的指标,信息增益越大,说明熵下降得越快,非纯度越小。因此信息增益越大越好。B正确。
  • C:信息增益率是为了解决信息增益会导致倾向于选择种类多的特征属性的缺点,本质上也还是描述“熵变小”,所以和信息增益一样,也是越大越好。C错误。
  • D:基尼指数越小越好。D错误。

总结:

  • 非纯度要尽可能小
  • 熵,基尼指数(Gini Index)和分类误差的值尽可能小
  • 信息增益/信息增益率尽可能大(信息增益描述熵下降的程度)
  • 基尼指数尽可能小
  • ID3 C4.5要求越大越好,CART要求越大越好

单选题20

在这里插入图片描述

  • 决策树策略:最大信息增益,最大信息增益率,最小基尼指数,D正确。

单选题23

在这里插入图片描述

  • 决策树剪枝的目的是减少树结点使其变为一棵尽可能简单的树,树的深度越低也意味着搜索时间越短,越高效。正确答案是C。
  • 此外说一句题外话,根据单选题的做题技巧,答案A和答案C是相反的答案,其中必有一个正确答案。

简答题21

在这里插入图片描述

ID3

在这里插入图片描述

C4.5

在这里插入图片描述

CART

在这里插入图片描述

计算题5

在这里插入图片描述
在这里插入图片描述
按照上一个简答题整理的公式直接计算就行

ID3

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

C4.5

在这里插入图片描述
在这里插入图片描述
红色数值表示和老师提供的标准答案不一样,但是和同学对过答案了,我合理怀疑答案有问题。

CART

在这里插入图片描述
在这里插入图片描述
CART这一块老师给的答案多少有点匪夷所思了,我保留我自己计算的答案。

评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

vector<>

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值