1.transpose
有两种调用方式,只能针对2D矩阵
Tensor.transpose(0,1) 交换0、1维度
transpose(Tensor,0,1) 交换0、1维度,返回Tensor
2.permute
只有一种调用,针对高纬矩阵
Tensor.permute(2,0,1)
!!相当于np.transpose可以进行高纬矩阵转置
3.view
返回指定维度的tensor
Tensor.view(-1,8) #-1代表自动计算
Tensor.view(2,6)
4.torch.reshape(因为还有一个np.reshape不做考虑)
Tensor.reshape(3,4) 不改变原来,重新复制一个
x = torch.tensor([[[1, 2, 3], [4, 5, 6]],
[[7, 8, 9], [10, 11, 12]]])
b = x.reshape((4, 3, 1))
c = x.reshape((1, 3, 4))
d = x.reshape((12, 1))
print('x_shape:', x.shape) # torch.Size([2, 2, 3])
print('b_shape:', b.shape) # b_shape: torch.Size([4, 3, 1])
print('c_shape:', c.shape) # c_shape: torch.Size([1, 3, 4])
print('d_shape:', d.shape) # d_shape: torch.Size([12, 1])
5.squeeze 和unsqueeze
删减和增加维度
Tensor.unsqueeze(1) 在第二维增加一个维度
Tensor.squeeze(-1)删去最后一个维度是1的维度(维度是1只起到扩钟维度的作用,不影响数值)
y = torch.aqueeze(Tensor)
关于 view 和reshape区别可以参考:Pytorch: view()和reshape()的区别?他们与continues()的关系是什么?_view和reshape的区别-CSDN博客
view 只适合对满足连续性条件 (contiguous) 的 Tensor进行操作,不会重新复制一份,只是访问方式变了,而reshape 同时还可以对不满足连续性条件的 Tensor 进行操作,无脑用reshape 就对了