深度学习中batch size 和 learning rate有什么关系?

参考文章链接
参考文章题目:One weird trick for parallelizing convolutional neural networks
具体可看第5页中。

一般来说,我们batch size 大一些,则learning rate也要大一些。且有一个数学关系。
假设别人最优的结果是这样的:
b a t c h s i z e = b a t c h 1 batch size = batch_1 batchsize=batch1
l e a r n i n g r a t e = l r 1 learning rate = lr_1 learningrate=lr1

那么当我们改变batch size的时候,可能遵循这样的规律:
n e w l e a r n i n g r a t e = o l d l e a r n i n g r a t e ∗ n e w b a t c h s i z e / o l d b a t c h s i z e new learning rate = old learning rate * \sqrt{new batch size / old batch size} newlearningrate=oldlearningratenewbatchsize/oldbatchsize

举例来说,原先别人的batch size 为128, learning rate为0.0005, 那么当我们把batch size改为1024时,则新的学习率有这样的推荐值: 0.0005 ∗ 1024 / 128 = 0.0005 ∗ 8 = 0.001412 0.0005*\sqrt{1024/128}=0.0005*\sqrt{8}=0.001412 0.00051024/128 =0.00058 =0.001412

  • 5
    点赞
  • 31
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值