kaggle NCFM学习历程

基于https://www.kaggle.com/jeffd23/deep-learning-in-the-deep-blue-lb-1-279

2019-03-05 终于自己手写了一波自定义数据生成器,但是最终model的fit_generator效果并不理想。令人费解的是,我只是变动了一下数据生成器,只是将原来代码中的所有数据放在同一个数组里的方法变成了数据生成器,val_loss就高得吓人。所以目前正在研究到底是哪里的细微的区别导致了这样的结果。

关于kaggle kernel评论的收获:

1.看评论说应该将sigmoid换为softmax

2.全连接太多可能会导致过拟合(在这个例子里面)

3.有人和我遇到了类似的问题

2019-03-06

不管怎么说,我是严重过拟合了。检查了很多次,决定换个模型试试。

改了下原来的模型,过拟合的情况小了点。val_loss降了不少。不过train_loss还是低得可怕,哭了。我决定再删一层!

然而清醒地意识到,删网络并不能改善val_loss的情况。于是我决定检查代码。主要是自定义生成器这里我是自己写的,可能还是有问题。不检查

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值