基于https://www.kaggle.com/jeffd23/deep-learning-in-the-deep-blue-lb-1-279
2019-03-05 终于自己手写了一波自定义数据生成器,但是最终model的fit_generator效果并不理想。令人费解的是,我只是变动了一下数据生成器,只是将原来代码中的所有数据放在同一个数组里的方法变成了数据生成器,val_loss就高得吓人。所以目前正在研究到底是哪里的细微的区别导致了这样的结果。
关于kaggle kernel评论的收获:
1.看评论说应该将sigmoid换为softmax
2.全连接太多可能会导致过拟合(在这个例子里面)
3.有人和我遇到了类似的问题
2019-03-06
不管怎么说,我是严重过拟合了。检查了很多次,决定换个模型试试。
改了下原来的模型,过拟合的情况小了点。val_loss降了不少。不过train_loss还是低得可怕,哭了。我决定再删一层!
然而清醒地意识到,删网络并不能改善val_loss的情况。于是我决定检查代码。主要是自定义生成器这里我是自己写的,可能还是有问题。不检查