1、随机梯度下降(批量训练) 因为Loss function 中取了众loss的平均,所以反向计算梯度时候只需要将批量梯度加起来
图片来源
2、 卷积层的反向,由于卷积核中每个元素都参与了输出层每个元素的运算,所以对卷积核中单个元素计算梯度时,将输出层对其的梯度加起来作为梯度。
几点关于卷积/反向梯度的想法记录
最新推荐文章于 2022-08-07 23:14:39 发布
1、随机梯度下降(批量训练) 因为Loss function 中取了众loss的平均,所以反向计算梯度时候只需要将批量梯度加起来
图片来源
2、 卷积层的反向,由于卷积核中每个元素都参与了输出层每个元素的运算,所以对卷积核中单个元素计算梯度时,将输出层对其的梯度加起来作为梯度。