pytorch提供了clone
、detach
、copy_
和new_tensor
等多种张量的复制操作,尤其前两者在深度学习的网络架构中经常被使用,本文旨在对比这些操作的差别。
1. clone
返回一个和源张量同shape
、dtype
和device
的张量,与源张量不共享数据内存,但提供梯度的回溯。
下面,通过例子来详细说明:
示例:
(1)定义
import torch
a = torch.tensor(1.0, requires_grad=True, device="cuda", dtype=torch.float64)
a_ = a.clone()
print(a_) # tensor(1., device='cuda:0', dtype=torch.float64, grad_fn=<CloneBackward>)
注意:grad_fn=<CloneBackward>
,说明clone
后的返回值是个中间variable,因此支持梯度的回溯。因此,clone
操作在一定程度上可以视为是一个identity-mapping函数。
(2)梯度的回溯
clone
作为一个中间variable,会将梯度传给源张量进行叠加。
import torch
a = torch.tensor(1.0, requires_grad=True)
y = a ** 2
a_ = a.clone()
z = a_ * 3
y.backward()
print(a.grad) # 2
z