深度学习基本概念

batch、batch size、subdivisions、epoch、iteration之间的关系

参考https://www.jianshu.com/p/e5076a56946c https://blog.csdn.net/qq_18668137/article/details/80883350?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.nonecase&depth_1-utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.nonecase
https://blog.csdn.net/xiaohuihui1994/article/details/80624593?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.nonecase&depth_1-utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.nonecase

batch size
深度学习中需要将训练集数据分批次送入模型进行训练,那么batchsize就是自己设置的每次送入模型训练的数据量,一般取16、32等,一个batchsize训练后得到一个梯度,相同情况下batch越大,训练越快,精度可能越低。
subdivisions
由于设备原因,这一个batch的量电脑无法处理,那么就需要设置subdivisions,将这组batch再次细分为minibatch,minibatch=batchsize/subdivisions,但是一个batchsize还是一个梯度。
batch、iteration
1个iteration等于使用batchsize个样本训练一次,权重参数更新一次,batch=iteration。
epoch
一个epoch是指将所有的数据送入网络中完成一次前向计算及反向传播的过程。

假设有一组数据集,训练集数量为10000,训练次数为30000,设置batchsize=20,subdivisions=10
那么
minibatch=20/10=2
iteration=batch=10000/20=500
epoch=30000/500=60

特此记录防止遗忘,若有不对还请指出。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值