pytorch中计算backward时产生的报错:grad can be implicitly created only for scalar outputs 的解决办法
如果X.backward()报错:grad can be implicitly created only for scalar outputs 加上去 X.backward(torch.ones_like(X)) 即可。例如这行计算一个线性的求解过程,第14、15行的l(欸哦)张量。
原创
2022-07-02 17:42:28 ·
1273 阅读 ·
0 评论