深度学习实验结果判定

深度学习每次结果不一致

使用定值随机种子比较好

随机数种子设置?一共有三个随机数种子,random,numpy和深度学习库的gpu种子,不过我三个都设置了,在gpu上还是会结果不一样,cpu每次都一样的,我用的dynet。
可以直接取最好值进行汇报,更严谨的话做10次取平均的。

深度学习实验总结

实验结果不好

先过拟合一个样本或者一个小子集,训练损失下降合理的话,再考虑泛化的事情。

  1. 确保代码正确(基石)
  2. 看下数据情况,量的问题,数据的分布(找训练集和测试集都看一下),数据是否平衡;
  3. 看下目标函数和业务目标是不是兼容的(方向错了,效果好不了);
  4. 对训练过程和预测的中间结果做一些可视化(定位问题点);
  5. 最后才是调参

调参:

  1. 损失函数loss不下降:数据读取是否正确、网络深度是否合适、损失函数选择是否有问题等;
  2. 训练集准确率高train acc、测试集准确率低val acc:网络是否过拟合了、如果过拟合是否需要dropout或其它正则化策略、测试集和训练集是否选取有问题、是否可以采用早停策略;
  3. 损失函数收敛过慢或达到某个值后不再降低:扩大学习率、采用学习率衰减策略、SGD、Adam、RMSProp等都试试;

当然,还有很多情况,在此就不介绍了。总之,我觉得实验结果不好,如果时间允许,就不应该放弃,这样才能“通过调参”更好的理解问题的难点在哪里。虽然调参只是深度学习的一部分,但是这一部分却是玄学基础。

过拟合

train loss下降时,val acc也下降的话,一般就是过拟合了。过拟合一般在训练集样本数比较小模型比较复杂的时候比较容易发生。一般是刚开始训练集loss下降、验证集准确度上升,训练到一定程度,训练集loss缓慢下降或不再下降了,验证集准确度反而下降了。可以加dropout、正则项或扩充数据集。

loss不下降的解决方法

参考链接1
参考链接2
参考链接3
loss不下降一般分为三种,即:训练集上loss不下降,验证集上loss不下降,和测试集上loss不下降。

  • 4
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

浪里摸鱼

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值