PyTorch里的requires_grad、volatile及no_grad

1. requires_grad

Variable变量的requires_grad的属性默认为False,若一个节点requires_grad被设置为True,那么所有依赖它的节点的requires_grad都为True。

x=Variable(torch.ones(1))
w=Variable(torch.ones(1),requires_grad=True)
y=x*w
x.requires_grad,w.requires_grad,y.requires_grad
Out[23]: (False, True, True)

y依赖于w,w的requires_grad=True,因此y的requires_grad=True (类似or操作)

2. volatile

volatile=True是Variable的另一个重要的标识,它能够将所有依赖它的节点全部设为volatile=True,其优先级比requires_grad=True高。因而volatile=True的节点不会求导,即使requires_grad=True,也不会进行反向传播,对于不需要反向传播的情景(inference,测试推断),该参数可以实现一定速度的提升,并节省一半的显存,因为其不需要保存梯度。
前方高能预警:如果你看完了前面volatile,请及时把它从你的脑海中擦除掉,因为

UserWarning: volatile was removed (Variable.volatile is always False)

该属性已经在0.4版本中被移除了,并提示你可以使用with torch.no_grad()代替该功能

x = torch.tensor([1], requires_grad=True)
with torch.no_grad():
...   y = x * 2
      y.requires_grad
False

@torch.no_grad()
def doubler(x):
      return x * 2
z = doubler(x)

z.requires_grad
False

参考文章: https://blog.csdn.net/jiangpeng59/article/details/80667335

注意: torch.Tensor生成的tensor,requires_grad默认为False。

作者:yalesaleng
链接:https://www.jianshu.com/p/ba203f4bcf4b

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值