深度学习模型调参经验

调参经验:

1.Seed在小数据集上有着重要作用,用于参数初始化,可以选取合适的seed。

2.确定epoch,是根据损失函数的值,画出损失函数曲线图,人工确认或者运用早停法。进而再确定auc。

3.batch_size在大数据集上尝试1024,2048等,都可以尝试。看看loss的下降情况,再选用效果更好的值。

batch_size太小,收敛得慢,导致网络收敛不稳定,可能准确率来回震荡,因此需要把基础学习速率降低一些。

Batch_Size 越大,其确定的下降方向越准,引起训练震荡越小。但可能模型的泛化能力会下降,每个batch更接近当前的训练数据集,而不是测试数据集。

4.学习率。适配batch_size,一般10-3,10-4。如果增加了学习率,那么batch size最好也跟着增加,这样收敛更稳定。

5.在多任务中,一般来说中间专家层层数越多,或者数量越多,所得精度越高。

参考资料:

(68 封私信 / 80 条消息) 深度学习中的batch的大小对学习效果有何影响? - 知乎 (zhihu.com)

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值