(Pytorch笔记)神经网络的反向传播 & 损失函数的值

神经网络每次反向传播是可以不求出损失函数的值,直接计算梯度进行反向传播的。

在神经网络中,计算backward的过程仅仅需要backward函数中所有需要的数据都准备好就可以计算,跟forward函数是没有关系的。

而后续的操作是需要前序操作的forward结果的,所以forward过程通常是不可缺少的。

但是,损失函数Loss是神经网络中的最后一个节点,没有后续操作(多损失函数除外),因此是不需要forward过程的,但如果从实际出发,损失函数的Loss值是反映神经网络当前训练状态的重要指标,只是为了节省少量的forward过程的计算量收益不大,也不符合实际场景需要。

Reference:

https://www.zhihu.com/question/507718145

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Think@

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值