Tensor维度变换
view/reshape 变换前后tensor的size(乘积)大小要不变
a = torch.rand(4,1,28,28) #4张通道为1(灰度)长宽为28行28列的图片
a.shape # torch.Size([4,1,28,28])
a.view(4,28*28) # 忽略图片上下左右位置信息和通道信息,变成二维信息,适用于全连接层
a.shape # torch.Size([4,784])
a.view(4*28,28) #合并前三个,把所有照片的所有通道的所有行放在一个维度N,变成(N,28)只关心每行的数据
a.shape # torch.Size([112,78])
a.view(4*1,28,28) #不关注是哪张照片不关注哪个通道,只关注featuremap
a.shape # torch.Size([4,78,78])
b = a.view(4,784)
b = a.view(4,78,78,1) # 这种变换符合语法,但造成数据污染
#还原时因为不知道a原本的形状(b,c,h,w),可能在语法可行的情况下造成数据丢失污染(b,h,w,c)
unsqueeze
a.shape # torch.Size([4,1,28,28])
a.unsqueeze(0).shape # 在a的0维度(索引)前插入一个维度
a.shape # torch.Size([1,4,1,28,28]) # 新加维度可以理解为一个集合或者一个组
a.unsqueeze(-1).shape # 在a的-1维度(索引)后插入一个维度
a.shape # torch.Size([4,1,28,28,1]) # 新加维度可以理解为一个集合或者一个组
a = torch.tensor([1.2,2.3]) # [2]
a.unsqueeze(-1) #[2,1]
tensor([[1.2000],
[2.3000]])
a.unqueeze(0) #[1,2]
tensor([[1.2000,2.3000]])
实例,如需进行b+f操作需要进行如下变换:
squeeze
b.shape # torch.Size([1,32,1,1])
b.squeeze().shape #torch.Size([32]) 不给定参数会把能挤压的维度(dim=1)全部挤压
b.squeeze(0).shape #torch.Size([32,1,1])
b.squeeze(-1).shape #torch.Size([1,32,1])
b.squeeze(1).shape #torch.Size([1,32,1,1]) 32不能挤压所以不变
扩展维度Expand / repeat
Expand: broadcasting 只改变了理解方式不增加数据√ 扩展时维度要相同且只能对于dim=1操作 传入的是新的shape
Repeat: memory copied 会增加数据 扩展时维度要相同 传入的是拷贝次数
a = torch.rand(4,32,14,14)
b.shape # torch.Size([1,32,1,1])
b.expand(4,32,14,14).shape # torch.Size([4,32,14,14]) 把b[1,32,1,1]->[4,32,14,14]
b.expand(-1,32,-1,-4).shape # torch.Size([1,32,1,-4]) -1表示该维度不变,-4是无意义的
b.shape # torch.Size([1,32,1,1])
b.repeat(4,32,1,1).shape # torch.Size([4,1024,1,1])
b.repeat(4,1,1,1).shape # torch.Size([4,32,1,1])
矩阵的转置
.t 只适用于2D的矩阵 两两交换
transpose 两两交换
permute 可以重新对所有维度排序 可以完成任意交换