PyTorch: In-place Operation

In-place Operation

In-place operation在pytorch中指的是支持原位修改tensor,这样就可以避免新的内存开销,主要是为了降低显存的消耗

但是在pytorch反向传播得到计算图的时候需要获取中间变量的值,如果使用in-place操作以后中间值就失去了,无法获得计算图,但是为什么有的激活函数写的in-place操作呢?

以ReLU函数为例,当输入值为正值时不变in-place与否不影响结果;当输入为负值时为0不进行反向传播了所以不影响

常见的In-place操作

1. 符号计算

*= +=等操作

在pytorch中尽量避免

tensor = torch.tensor([[1,2,3], [4,5,6]])
print(tensor.data_ptr())
tensor += 2
print(tensor.data_ptr())
tensor = tensor+2
print(tensor.data_ptr())
'''
140430616339712
140430616339712	# in-place
140430616321664 # out-of-place
'''

(继续补充)

常见的Out-of-place操作

1. 符号计算

a=a+b等,参考In-place操作

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值