来自 https://github.com/BVLC/caffe/issues/430:
这里的意思就是batchsize和学习率是相关的,如果batchsize减小了X倍,则理论上学习率应增大sqrt(X)倍(当然这是找到最好的batchsize的情况下的),不过Alex还是用了X倍。后面 https://arxiv.org/abs/1404.5997 这个链接的论文还没看,有时间的可以看一下,好像有专门讲到batchsize的设置的
另外,batchsize最好设置为8的倍数,这样gpu的并行运算效率最高