model.fit中的Epoch、Batch_Size和iteration详解

https://blog.csdn.net/xjp_xujiping/article/details/82953246
https://blog.csdn.net/lafengxiaoyu/article/details/111602955

一,原因

我们接触到的机器学习和深度学习为了训练模型都需要庞大的数据,而对数据的处理(咋样将数据喂入模型)将是一个必须解决的问题。流浪者hwm。
在这里我们引入了 epochs,batch size,iteration这些概念来解决我们面临的问题。

二,epochs

定义:每一个Epoch是指当一个完整的数据集已经被神经网络前向和反向传播一次。
因为一个epoch可能很大,因此我们需要把它划分为很多个batch(批次)
为什么要使用多于一个 epoch?
在神经网络中传递完整的数据集一次是不够的,我们需要将完整的数据集在同样的神经网络中传递多次。

三,batch_size(每一批次数据的多少)

机器学习和深度学习的数据成千上万,直接将所有的数据读出放在内存中显然是不现实的所以我们想到的是在需要的时候读取一部分,再在次需要的时候在读取一部分。
请注意:Batch size 和number of batches (批次数)是两个不同的东西

四,Iterations(批次的多少)

定义:Iterations是在一个epoch里需要的批次数(number of batches)
请注意:批次数目(The number of batches)等于在一个epoch中所需的Iteration数目

五,举个例子

在这里插入图片描述

六,model.fit介绍

model.fit(
             训练集的输入特征,
              训练集的标签, 
              batch size,#每一个batch的大小 epochs,#迭代次数 
              validation data=(测试集的输入特征,测试集的标签), 
              validation_split=从测试集中划分多少比例给训练集 
              validation_.freq=测试的epoch间隔数
              )
  • 1
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值