Kaggle心得(一)

Titanic

1. 不要痴迷于使用复杂的模型,有时候使用简单模型效果更佳。

经过数据预处理和数据清洗之后,使用随机森林和逻辑回归两种模型。随机森林模型对象使用网格搜索进行十折验证进行调参。

两个模型对象的准确率:

 

 logrrf_grid
训练集84.11%89.09%
验证集79.85%78.36%
测试集78.47%77.03%

注:此处训练集和验证集是对train.csv数据使用train_test_split方法取得的。本质上都是训练集的数据。测试集的准确率是在Kaggle上提交预测之后返回的结果。

可以看到随机森林模型对象对训练集数据有更高的预测准确率,而在验证集和测试集上表现反倒不如逻辑回归模型对象好。

2. 不要把所有训练集的数据(包括训练集和验证集)喂给模型对象,否则容易出现过拟合现象。

我在尝试这样做后,测试集的准确率反而下降了一个百分点。

3. 训练集的数据规模不大的时候,数据清洗和模型对象的调参对最后准确率会有非常大的影响。

没有一种万能的公式去使用。唯一能够起到作用的是数据清洗和模型调优之前,真正做到对问题和数据有深刻的理解。

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值