那些张量不能使用内置操作?很显然是叶子张量,还有就是一部分的中间张量。

参考了以下内容:
pytorch中inplace以及detach()操作对求梯度过程(backward)的影响 - 知乎 (zhihu.com)

并进行了简单的总结:


A.  detach会分离计算图,但共享内存。即使强行设requires_grad=True,它没有计算图,反向传播也传不回去。就是backward会断开。

B.  不能用in-place的两种情况:

      a.对于要求梯度的叶子张量不能

       b.对于 在求梯度阶段需要用到的张量 不能      (如下例所示)

C.非内置操作只会改变该处的值,但内置操作会同时改变最终的梯度,以及计算图。  .data的内置操作会改变值,以及梯度,不会改变计算图。


对于B这点进行详细说明,其他可以去参考原文。

首先叶子张量是我们要反向传播优化的,肯定是需要其原值的,以及其梯度,内置操作会改变其原值,就没办法就是优化了。


       对于一部分的非叶子张量,也是不可以内置操作的,下面举出一个简单的例子,帮助理解。*=是一个内置操作。  (导入模块: import torch)

会报错,因为内置操作那一步的梯度是2f,但是f的值因为内置操作会改变,而求的梯度是会用到f这个变量原先存储的值的。所以报错。

而变成下面这样,就不会出错了,正常反向传播。因为此时梯度是6,与f的值无关。

 

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值