loss.backward()反向传播计算的梯度是根据loss的计算方式来的。如果loss用到了整个batch,则梯度是整个batch的梯度之和,也可能是平均,取决于loss的计算方式,如果loss只用到了batch中的某一个图,则梯度只会是这一个图的影响。
backward()反向传播后神经网络的梯度计算
最新推荐文章于 2023-06-26 04:08:01 发布
loss.backward()反向传播计算的梯度是根据loss的计算方式来的。如果loss用到了整个batch,则梯度是整个batch的梯度之和,也可能是平均,取决于loss的计算方式,如果loss只用到了batch中的某一个图,则梯度只会是这一个图的影响。