模型训练中epoch、batch、update之间的关系

参考:【機器學習2021】預測本頻道觀看人數 (下) - 深度學習基本概念簡介Introduction of ML/DL
结论: e p o c h ≥ b a t c h = u p d a t e epoch\geq batch=update epochbatch=update

详解,如右图

1)将 N N N个训练样本随机分成若干个等长的 b a t c h batch batch,每个 b a t c h batch batch中的样本个数为 B B B(最后一个可能小于 B B B);
2)随机初始化参数 θ 0 \theta^0 θ0
3)用第一个 b a t c h batch batch内的 B B B个样本针对loss函数 L L L(因为只用了第一个 b a t c h batch batch内的样本,所以记为 L 1 \textcolor{green}{L^1} L1)计算得到梯度 g \textcolor{green}{g} g;再在 θ 0 \theta^0 θ0的基础上更新参数得到 θ 1 \theta^1 θ1
4)用第二个 b a t c h batch batch内的 B B B个样本针对loss函数 L L L(因为只用了第一个 b a t c h batch batch内的样本,所以记为 L 2 \textcolor{blue}{L^2} L2)计算得到梯度 g \textcolor{blue}{g} g;再在 θ 1 \theta^1 θ1的基础上更新参数得到 θ 2 \theta^2 θ2
5)用第三个 b a t c h batch batch内的 B B B个样本针对loss函数 L L L(因为只用了第一个 b a t c h batch batch内的样本,所以记为 L 3 \textcolor{orange}{L^3} L3)计算得到梯度 g \textcolor{orange}{g} g;再在 θ 2 \theta^2 θ2的基础上更新参数得到 θ 3 \theta^3 θ3
6)…

每用一个 b a t c h batch batch内的 B B B个样本训练一次,就叫一次 u p d a t e update update
当完成所有的 b a t c h batch batch(即 N N N个样本都训练过一次)表示一次 e p o c h epoch epoch
模型一般会进行多次 e p o c h epoch epoch的训练,每次 e p o c h epoch epoch会重新打乱样本的顺序。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值