神经网络中的Epoch、Iteration、Batchsize简要区分

分别介绍:

batchsize,批尺寸:每次训练多少个样本(平衡内存和效率),影响模型的优化程度和速度。

iteration,迭代:迭代是重复反馈的动作,神经网络中我们希望通过迭代进行多次的训练以达到所需的目标或结果。
每一次迭代得到的结果都会被作为下一次迭代的初始值。一个迭代=一个正向通过+一个反向通过。

epoch,时期:一个时期=所有训练样本的一个正向传递和一个反向传递。

总结:
(1)batchsize:批大小。在深度学习中,一般采用SGD训练,即每次训练在训练集中取batchsize个样本训练;
(2)Iteration:1个iteration等于使用batchsize个样本训练一次;
(3)epoch:1个epoch等于使用训练集中的全部样本训练一次;

之间的关系:

例如有M×N个样本,设定训练的batchsize为N,则一次epoch需要iteration迭代M次P次epoch需要迭代M×P次。

 

 

之后再补充

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值