![](https://img-home.csdnimg.cn/images/20240711042549.png)
文章目录pytorch: grad can be implicitly created only for scalar outputs原理: 出现这个原因是由于在backword时,没有计算loss导致,需要计算loss;或者在backword时,传入参考,作为loss计算的标准。读取gradient针对具体变量针对model中的某些层pytorch: grad can be implicitly created only for scalar outputs原理: 出现这个原因是由于在backword