1.detach()
作用:从当前网络分离出一个Tensor,值和原变量相同,但是不需要计算梯度。
注意:返回的Tensor和原变量共享内存。两者的原地修改均不可见,而且可能会触发正确性检查的错误。对返回的Tensor的修改不会引起原变量的修改,但会触发错误。
参考:PyTorch官方文档
2.torch.ones_like()
torch.ones_like(input, *, dtype=None, layout=None, device=None, requires_grad=False, memory_format=torch.preserve_format) -> Tensor
作用:返回一个有标量1填充成的张量,它的大小和input
相同,等价于torch.ones(input.size(), dtype=input.dtype, layout=input.layout, device=input.device)
input(Tensor):input的size决定输出张量的size
dtype(torch.dtype, optional):期望的返回张量的数据类型。如果为None,默认为input的dtype。
layout(torch.layout, optional):期望的返回张量的layout。如果为None,默认为input的layout。
device(torch.device, optional):期望的返回张量的运行设备,如果为None,默认与input相同。
requires_grad(bool, optional): 如果需要在返回张量上计算梯度。默认为False。
memory_format(torch.memory_format,optional):期望的返回张量的内存格式。默认为torch.preserve_format。
参考:PyTorch官方文档
3. torch.meshgrid()
torch.meshgrid(*tensors)
作用:输入N个张量,每个张量由标量或一维向量组成,创造N个N维网格,其中第i个网格由第i个输入延展得到,维度由其他输入定义。
说明:如果输入的k个张量的size为 ( N 1 , ) , ( N 2 , ) , . . . , ( N K , ) (N_1,), (N_2,), ...,(N_K,) (N1,),(N2,),...,(NK,),那么输出的k个张量有相同的size,为 ( N 1 , N 2 , . . . , N k ) (N_1, N_2, ..., N_k) (N1,N2,...,Nk)。
>>> x = torch.tensor([1, 2])
>>> y = torch.tensor([3, 4, 5])
>>> grid_x, grid_y = torch.meshgrid(x, y)
>>> grid_x
tensor([[1, 1, 1],
[2, 2, 2]])
>>> grid_y
tensor([[3, 4, 5],
[3, 4, 5]])
参考:PyTorch官方文档