以激活函数f为ReLU,损失函数为softmax的交叉熵损失的3-layer神经网络为例,给出完整的计算各层梯度的过程(下图中,W3 的 size 应该是 [H,C]):
神经网络(Neural Networks)反向传播计算梯度
最新推荐文章于 2023-06-22 10:00:35 发布
以激活函数f为ReLU,损失函数为softmax的交叉熵损失的3-layer神经网络为例,给出完整的计算各层梯度的过程(下图中,W3 的 size 应该是 [H,C]):