深度学习中的epoch,batch和iteration

深度学习训练中,epoch是指所有训练样本完成一次正向传播和反向传播的过程;batch是将样本分成若干批进行训练,batch_size定义每批样本的数量;iteration是一次batch的训练。例如,MNIST数据集训练30000次,batch_size为100,共完成50个epoch,模型权重更新5000次。
摘要由CSDN通过智能技术生成
名词 定义
epoch 使用训练集的全部数据进行一次完整的训练,称为“一代训练”
batch 使用训练集中的一小部分样本对模型权重进行一次反向传播的参数更新,这一部分样本被称为“一批数据”
iteration 使用一个batch的数据对模型进行一次参数更新的过程,称为“一次训练”

epoch:所有的训练样本都在神经网络中进行了一次正向传播和一次反向传播。
然而,当一个epoch的样本数量可能过于庞大,就需要把它分成多个小块,也就是分成多个batch来进行训练。

batch(批,一批样本):将训练样本分成若干个batch

batch_size(批大小):每批样本的大小

iteration(一次迭代):训练一个Batch就是一次Iteration

换算关系:
在这里插入图片描述
实际上,梯度下降的几种方式的根本区别就在于上面公式中的 Batch_Size 不同,

梯度下降方式 训练集大小 batch_size numbers
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值