Datawhale AI夏令营 第三期Task 01笔记

Task01中涉及到一个机器学习-随机森林 方案,以下为原代码。

图1 魔塔截图

参数解释:
n_estimators=10:随机森林中决策树的数量,这里设置为10棵树。
max_depth=None:单棵决策树的最大深度,默认情况下不限制树的深度。
min_samples_split:在内部节点再划分所需的最小样本数。
min_samples_leaf:叶子节点最少需要的样本数。
n_jobs=1:并行计算的作业数量,-1 表示使用所有可用的 CPU 核心。

        做了一个小实验,当决策树数量较小(此处设置为1)时,生成的答案统一都是分数比较低的,但是有着明显的大小区分,初步猜测可能离散分布于某一区间,因为平台提交次数限制原因,没办法进行更多实验采集数据。这是因为随机森林的预测结果可能会有较大的方差,模型的集成效果依赖于多棵树的平均预测。随机森林的优势在于集成多棵决策树的预测结果,以减少单棵树可能出现的过拟合问题,提高整体预测的稳定性和准确性。

图2 成绩截图

        01中,通过更改了参数,可以较为容易地提高自己的分数,如27号的0.2583.接下来会继续尝试更改模型和其他方案。笔记残缺内容较多...还请原谅~

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值