batch size浅谈

Batch Size的概念:每个Batch(批次)的大小。
例如所有训练集有1000个样本,每把1000个Sample跑完就是一个epoch。那么在一个epoch中,同时取多少个sample进行训练,就是batch size

当今神经网络的训练中,所需要的训练集是非常庞大的,因此我们没办法一次性把所有训练集放进内存或显存中,统一训练。
在同时训练的数量差别上,分三种类型:

  1. batch size=1;
  2. batch size=n (dataset > n > 1);
  3. batch size=size(DataSet)。

第一种情况是极端的每次只同时训练一个样本,第三种情况是极端的每次同时训练所有样本。
通常会在两者取折中,以一个mini batch的方式进行训练。而mini batch的大小即batch size。

Batch Size越大,相对于训练集的偏差(bias)则越小,则每次优化的方向更贴近整体训练集的大方向。
反观BatchSize=1的情况下,每次训练的偏差都较大,模型训练的过程容易抖动(Zig-zag),且训练的速度变慢。

在目前基本属于标配的Batch Normalization组件,是在每个Batch下的Channel进行归一化,且根据论文Group Normalization的实验表明,Batch Size的增大是有助于含BN层的模型优化的。
在这里插入图片描述

Batch Size虽越大越好,但通常会使用 2 n 2^n 2n 作为Size。因为GPU的物理处理器通常是 2 n 2^n 2n 个,这样Samples可以和GPU的物理处理器对齐,最大化使用GPU的计算资源。

参考文献:
What is batch size in neural network?
Is using batch size as ‘powers of 2’ faster on tensorflow?

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值