CUDA:CUDA out of memory. Tried to allocate 100.00 MiB (GPU 0; 15.78 GiB total capacity; 14.24 GiB al

1.batch_size调整
batch_size调整小了的影响:
区别:在于变化的趋势,一个快,一个慢。在显存能允许的情况下,同样epoch的树木,batchsize大的需要的batch数目减少,因此训练时间也减少了。大的batchsize梯度计算的更加稳定,模型的训练曲线可能会更加的平滑。微调的时候大的batchsize可能会取得更好的结果。模型性能但可能会下来。
大的batchsize减少训练的时间,提高稳定性。
小的batchsize引入随机性的机会大一些,具有更好地泛化能力,
固定lr,存在一个最优的batchsize能够最大化test的acc
策略:batchsize增加N倍,为了保证经过同样样本后更新的权重相等,按照 线性缩放规则,lr也应该增加为原来的N倍(尽量使用比较的大学习率 更加有竞争效果 收敛更稳定 大的lr有利于提高泛化能力)

2.BN层 affine=FALSE(不更新BN层的参数)
更改batchsize为12

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值