深度学习经验

这是我kaggle比赛看到大佬们之后总结出来的经验,因技术一般般,总结的不对的地方请给我留言,这也是我宝贵的学习机会
1.首先试试已知的所有网络结构,选出效果最好的两个,开始实验
2.验证集也可以作为训练集的一部分,跳过验证,这样效果可能更好
3.尝试模型融合,把两个性能最好的融合到一起

Finding best alpha

Our final model is just mix of two presented above. In the first commit it was arithmetic mean (alpha = 0.5). Note that using validation data as training will fit your model with accuracy equal 1.0.
Thus formula presented below of linear combination of models will work only with validation data:

prob = alpha prob(model) + (1 - alpha) prob(model2)**

4.在对学习率下手

V8: Pushing the max LR up to 0.0001 * strategy.num_replicas_in_sync (0.96059)

V9: max LR = 0.00003 * strategy.num_replicas_in_sync (0.95955)

V10: max LR = 0.00006 * strategy.num_replicas_in_sync (0.96114)

V11: LR_EXP_DECAY = .5 (from .8) (0.96256)

V12: LR_EXP_DECAY = .9 (0.96056)

V13: LR_RAMPUP_EPOCHS = 3 and LR_EXP_DECAY = .5 (0.96044)

V14: Manually interrupted

V15: LR_RAMPUP_EPOCHS = 5 and LR_EXP_DECAY = .7

这些参数都会影响

def lrfn(epoch):
if epoch < LR_RAMPUP_EPOCHS:
lr = (LR_MAX - LR_START) / LR_RAMPUP_EPOCHS * epoch + LR_START
elif epoch < LR_RAMPUP_EPOCHS + LR_SUSTAIN_EPOCHS:
lr = LR_MAX
else:
lr = (LR_MAX - LR_MIN) * LR_EXP_DECAY**(epoch - LR_RAMPUP_EPOCHS - LR_SUSTAIN_EPOCHS) + LR_MIN
return lr

lr_callback = tf.keras.callbacks.LearningRateScheduler(lrfn, verbose=True)
学习率也可以采取定值的方式衰减
使用adam就可以了
5.图片的大小也会影响,找到最合适的大小

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

追梦小狂魔

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值