PyTorch中detach()方法和detach_方法区别

import torch

t0 = torch.ones((10))
t1 = t0.detach()
print(id(t0),id(t1))
print(id(t0.data) , id(t1.data))

运行结果:

1879016743744 1879016743808
1879016743936 1879016743936
  • detach()方法是重新建一个tensort1,不过t1t0datagrad是共用的。
t0 = torch.ones((10))
t1 = t0.detach_()
print(id(t0),id(t1))
print(id(t0.data) , id(t1.data))

运行结果:

1879016743872 1879016743872
1879016743744 1879016743744
  • detach_()方法是内置方法,返回的tensor地址是一样的。

共同点:

两种方法的共同点都有:将返回的tensor从计算图中剥离。

不同点:

不同点:detach()方法可以保留原tensor,用于后续的反向传播。

在生成对抗网络中使用方法:

在生成对抗网络中,我们使用detach(),因为我们还要保留原tensor用于反向传播,所以不能用detach_()

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值