深度学习调参技巧| kaggle 全球排名35th导师分享

本文由Kaggle全球排名35的导师分享深度学习调参心得,涵盖模型能力、学习率、批次大小、Dropout、初始化方法、正则化、数据增强、随机种子、交叉验证、优化器选择等方面,强调先过拟合再做权衡,并指出不要过早停止训练。
摘要由CSDN通过智能技术生成

作者简介:布尔艺数合作导师,Kaggle Competition Master 全球排名35,前一线互联网公司算法专家,擅长多模态学习、CV、NLP、表示学习等领域。

KKY分享调参心得:

  1. 先overfit 再trade off,首先保证你的模型capacity能够过拟合,再尝试减小模型,各种正则化方法;

  2. lr ,最重要的参数,一般nlp bert类模型在1e-5级别附近,warmup,衰减;cv类模型在1e-3级别附近,衰减;具体需要多尝试一下;

  3. batch size 在表示学习,对比学习领域一般越大越好,显存不够上累计梯度,否则模型可能不收敛… 其他领域看情况;

  4. dropout,现在大部分任务都需要使用预训练模型,要注意模型内部dropout ratio是一个很重要的参数,使用默认值不一定最优,有时候dropout reset到0有奇效;

  5. 初始化方法,linear / cnn一般选用kaiming uniform 或者normalize,embedding 一般选择截断 normalize,论文很多,可以去看看;

  6. 序列输入上LN,非序列上BN;

  7. 基于banckbone 构建层次化的neck 一般都比直接使用最后

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值