深度学习中:epoch、batch size和iterations之间的关系

在深度学习中,epoch、batchsize和iterations是在训练模型时,一定用到的一些概念。那么分别是什么意思呢?
首先,为什么会用到以上概念,是因为“梯度下降”,也就是寻求曲线的一个最小值。其次,梯度下降是迭代的,它是一个需要多次计算的结果来求得最优解。
1,epoch
一个epoch指代所有的数据送入网络中完成一次前向计算及反向传播的过程。在训练模型时,一般会设置多个epoch,比如epoch=50、100、600,甚至等于6000。这么做是因为在寻求最优解时,将数据送入网络进行一次迭代是不够的,一般是需要进行多轮的迭代才会收敛。同时,深度学习中,训练模型时的数据量一般来说是比较大的,也就是说一个epoch是比较大的,计算机一般无法负荷,所以这时,一般会分成几个比较小的batches,每次送入网络一部分数据。
2,batch size
经上面所述,batch就是每次送入网络中训练的一部分数据,batch size就是每个batch中训练样本的数量。所以,至于batch size取多大合适,这取决于设备和运行效率,根据实际情况来进行实际的选择。
简单点说,批量大小将决定我们一次训练的样本数目。batch_size将影响到模型的优化程度和速度。
3,iterations
iterations就是完成一次epoch所需的batch个数。比如,训练集一共有5000个数据,batch size为500,则iterations=10,epoch是等于1(因为一个epoch是所有数据融入网络中完成一次前向计算及反向传播的过程)。

**iterations=all data/batch size**

参考链接:https://blog.csdn.net/chen772209/article/details/93648559
清晰,有图
解释了几种梯度下降的方式
几种超参对于训练的影响:https://zhuanlan.zhihu.com/p/83626029

  • 3
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值