epoch和episode

一个训练集 过大,往往需要划分

划分为1个:

名称:batch梯度下降

batch_size = m

用整个训练集进行梯度下降

划分成5个:

名称:mini-batch梯度下降

batch_size = 占1/5的量

划分为m个:

名称:随机梯度下降

batch_size = 1

一次对一个数据进行梯度下降

epoch

对整个训练集进行了一次梯度下降,即:所有的训练样本完成一次forward和backward propagation。

对于划分为5个子集:就是上述的for 执行完了,对5个子集都执行过。

 

一般样本要过很多次,多个epoch,直到loss稳定 

iteration

迭代,表示进行了一次梯度下降,更新了网络一次w

一次iteration=[batch_size]个训练数据forward+backward后更新参数过程

如果用mini-batch,那么一次epoch包含5次iteration

episode

强化学习用的多,来源于游戏,是‘关卡’的概念

从人物出生 到 游戏结束/game over的过程 

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值