小白轻松学:一文读懂深度学习模型在训练中的向前传播、反向传播、 iterations、batch size、epochs分别啥意思!

小白轻松学:一文读懂深度学习模型在训练中的向前传播、反向传播、 iterations、batch size、epochs分别啥意思!

在这里插入图片描述

购买相关资料后畅享一对一答疑!点击下方链接,告别导师放养、无人指导科研的疼苦!

详细的改进教程以及源码,戳这!戳这!!戳这!!!B站:AI学术叫叫兽 源码在相簿的链接中,动态中也有链接,感谢支持!祝科研遥遥领先!

一、前向传播(Forward Propagation)

概念:前向传播是指数据从输入层通过隐藏层最终到达输出层的过程,在这一过程中,每一层的节点(神经元)会根据输入数据和当前层的参数(权重和偏置)计算出输出。

作用:前向传播的目的是为了得到预测结果,即根据当前的模型参数对输入数据进行预测。

二、反向传播(Backward Propagation)

概念:反向传播是一种用于训练深度学习模型的算法,它通过计算损失函数相对于模型参数的梯度来更新模型的参数。这一过程从输出层开始,逆向通过每一层传播,直至输入层。

作用:反向传播的目的是最小化损失函数,即调整模型参数使得模型预测值尽可能接近真实值。

三、 Iteration

概念:迭代是指完成一个批次数据的单次训练过程,包括前向传播和反向传播,数值上等于dataset / batch_size

作用:每次迭代,模型都会根据批次数据计算损失,然后更新一次参数,以期望减少损失,也就是我们看到的损失函数逐渐下降的过程。

四、 Epoch

前向传播和反向传播过程中所有批次的训练迭代次数,一个epoch就是整个数据集(dataset)的一次前向传播和反向传播,通俗点讲,epoch指的就是训练过程中全部数据将被送入网络训练多少次

整个数据集(dataset)在模型中传递一次是不够的,数据集是有限的,需要将整个数据集在同样的模型中传递多次,对模型参数更新多次,这样才有可能得到最优化的结果

如果epoch太小,网络有可能发生欠拟合;如果epoch太大,则有可能发生过拟合。具体怎么选择要根据实验结果去判断和选择,对于不同数据集选取的epoch是不一样的。叫叫兽独家建议:第一次尽可能设置的大一点,抓住收敛点后方可确定后续实验的Epoch!(对比实验,控制变量)

五、Batch size

batch_size:每次训练所选取的样本数,通俗点讲就是一个 batch中的样本总数,一次输入进网络的样本数量是多少。这个并不是越大越好,根据自身的GPU决定!

六、写在最后

学术因方向、个人实验和写作能力以及具体创新内容的不同而无法做到一通百通,所以本文作者即B站up主:Ai学术叫叫兽在所有B站资料中留下联系方式以便在科研之余为家人们答疑解惑,本up主获得过国奖,发表多篇SCI,擅长目标检测领域,拥有多项竞赛经历,拥有软件著作权,核心期刊等经历。因为经历过所以更懂小白的痛苦!因为经历过所以更具有指向性的指导!

祝福所有科研工作者都能够在自己的领域上更上一层楼!!!

关注B站:Ai学术叫叫兽er

从此走上科研快速路

遥遥领先同行!!!!

详细的改进教程以及源码,戳这!戳这!!戳这!!!B站:AI学术叫叫兽er 源码在相簿的链接中,动态中也有链接,感谢支持!祝科研遥遥领先!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值