pytorch.data属性和.detach属性相同与不同之处

说一下.data和.detach吧
a = torch.tensor([1.,2,3], requires_grad = True)
print(a)
b = a.data
print(b)
c = a.detach()
print(c)

b *= 5
print(a)
print(b)

'''
tensor([1., 2., 3.], requires_grad=True)
tensor([1., 2., 3.])
tensor([1., 2., 3.])
tensor([ 5., 10., 15.], requires_grad=True)
tensor([ 5., 10., 15.])'''

.data 和.detach只取出本体tensor数据,舍弃了grad,grad_fn等额外反向图计算过程需保存的额外信息。

在版本0.4.0后加入.detach,并推荐使用.detach,

  1. .detach

    >>> a = torch.tensor([1,2,3.], requires_grad = True)
    >>> out = a.sigmoid()
    >>> c = out.detach()
    >>> c.zero_()  
    tensor([ 0.,  0.,  0.])
    
    >>> out  # modified by c.zero_() !!
    tensor([ 0.,  0.,  0.])
    
    >>> out.sum().backward()  # Requires the original value of out, but that was overwritten by c.zero_()
    RuntimeError: one of the variables needed for gradient computation has been modified by an inplace operation
    
  2. .deta

    >>> a = torch.tensor([1,2,3.], requires_grad = True)
    >>> out = a.sigmoid()
    >>> c = out.data
    >>> c.zero_()
    tensor([ 0.,  0.,  0.])
    
    >>> out  # out  was modified by c.zero_()
    tensor([ 0.,  0.,  0.])
    
    >>> out.sum().backward()
    >>> a.grad  # The result is very, very wrong because `out` changed!
    tensor([ 0.,  0.,  0.])
    

简单的说就是,.data取出本体tensor后仍与原数据共享内存(从第一个代码段中可以看出),在使用in-place操作后,会修改原数据的值,而如果在反向传播过程中使用到原数据会导致计算错误,而使用.detach后,如果在反向传播过程中发现原数据被修改过会报错。更加安全

  • 11
    点赞
  • 44
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值