epoch,batch_size,iteration,episode简介

本文详细介绍了深度学习中的核心概念:epoch、batch_size和iteration。epoch是指遍历完整个训练数据集的过程;batch_size定义了每次更新模型参数时所用的数据量;iteration则是每个epoch内数据被分批处理的次数。理解这些概念对于优化模型训练和提升效率至关重要。同时,文章还提及了在强化学习中的episode概念,它代表智能体与环境交互的一轮完整过程。
摘要由CSDN通过智能技术生成

epoch
one forward pass and one backward pass of all the training examples, in the neural network terminology,重点就是所有的训练数据都要跑一遍。假设有6400个样本,在训练过程中,这6400个样本都跑完了才算一个epoch。一般实验需要训练很多个epoch,取平均值作为最后的结果,在一定程度上,相当于集成,避免局部极值。

batch_size
中文名称是批大小,之前的6400个样本,如果送一个样本进去,就更新一次网络的权重,也就是在线学习。与之对应的,我们可以把一个epoch的数据,分批送进网络,可以加快训练时间。每次送多少进去,就是batch_size,假设把6400个样本,分成50次送进去,那么每一次就要送128个样本进去,即batch_size=128。

iteration
我们把一个epoch的所有数据分成了很多批,批数就是iteration,按上面的假设,iteration=50,每经过一个iteration,参数更新一次。

episode
one a sequence of states, actions and rewards, which ends with terminal state. 这个概念在神经网络中很少见到,主要是在few-shot或者zero-shot这样的小样本学习中。简单来讲,一个episode,就是一次选择support set和query set类别的过程,即用选择的某几个类训练一次模型,下一个episode,再选择其他几个类训练模型。一个epoch中存在多个eposide。

强化学习中,episode是个重要的术语。那么episode应该如何理解呢?
An episode is one complete play of the agent interacting with the environment in the general RL setting. Episodic tasks in RL means that the game of trying to solve the task ends at a terminal stage or after some amount of time.
看完上面的解释,应该理解一个episode为是一轮或一个回合,即智能体从开始执行任务,到某个终止阶段,例如结束了任务(成功或失败),或经过了一定时间等等。

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值