pytorch 1.4 tutorial 学习疑点笔记
Autograd 自动求导 backgrad() 函数
out.backward()
equal to
out.ackward(torch.tensor(1))
思考当out.backward(torch.tensor([0.,0.2,0.5]))的情况
利用雅可比矩阵的特性链式法则计算
当backward后面为向量的时候,相当于我们此时的起始节点在二级非叶子节点上,此时的输入向量为dout/dy,三级非叶子节点相对于二级非叶子节点的导数为dy/dx。利用雅可比矩阵链式法则,我们知道叶子节点相对于三级非叶子
原创
2020-10-14 20:51:07 ·
152 阅读 ·
0 评论