Pytorch——tensor维度变换

本文详细介绍了PyTorch中用于张量操作的重要函数,包括reshape用于改变张量形状,squeeze和unsqueeze用于调整维度,transpose/t/permute用于矩阵转置,以及expand用于扩展维度。这些函数在神经网络模型构建和数据预处理中起着关键作用。
摘要由CSDN通过智能技术生成

1、常用的api

(1)View/reshape 可以将一个shape转变成任意一个shape

(2)Squeeze/unsqueeze 挤压与增加维度

(3)Transpose/t/permute (矩阵的传置) 单次的交换操作和多次的交换操作

(4)Expand/repeat 维度的扩展 我们可以把维度小的变成高维度的

2、view 和reshape

这两个基本是一摸一样的,区别在于pytorch0.3中默认的是view函数;

a=torch.rand(4,1,28,28) #使用rand()函数随机均匀的初始化生成一个四维的tensor
#28,28 表示图片的长和宽,1表示一个通道,表示是灰度图片,4表示一共有四张图片
print(a.shape) #输出结果 torch.Size([4,1,28,28])



print(a.view(4,28*28)) #把所有信息合并在一起也就是[4,784],像图片这种二维的信息必须要打平

print(a.view(4,28*28).shape) # 输出结果 torch.Size([4,784)

print(a.view(4*28,28).shape) #输出结果 torch.Size([112,28)
#把原来数据的前三个通道合并在一起4*1*28

print(a.view(4*1,28,28).shape) # 输出结果 torch.Size([4,28,28)


b=a.view(4,784) # 数据的存储/维度顺序非常重要

print(b.view(4,28,28,1)) #输出的数据就会出问题,与原来的数据不一致

3、Squeeze/unsqueeze 挤压(减少维度)与增加维度

a=torch.rand(4,1,28,28) #使用rand()函数随机均匀的初始化生成一个四维的tensor
#28,28 表示图片的长和宽,1表示一个通道,表示是灰度图片,4表示一共有四张图片
print(a.shape) #输出结果 torch.Size([4,1,28,28])


print(a.unsqueeze(0).shape)#表示再原来的维度前面加入一个维度,没有增加数据,再哪一个索引前面插入
#输出结果 torch.Size([1,4,1,28,28])


print(a.unsqueeze(-1).shape) #表示在-1维度后面插入
#输出结果 torch.Size([4,1,28,28,1])

print(a.unsqueeze(4).shape) #表示在4维度前面插入
#输出结果 torch.Size([1,4,1,28,28])

print(a.unsqueeze(-4).shape) #表示在-4维度后面插入
#输出结果 torch.Size([4,1,1,28,28])

print(a.unsqueeze(-5).shape) #输出结果 torch.Size([1,4,1,28,28])

print(a.unsqueeze(5).shape) #输出结果报错

a=torch.rand(4,1,28,28) #使用rand()函数随机均匀的初始化生成一个四维的tensor
#28,28 表示图片的长和宽,1表示一个通道,表示是灰度图片,4表示一共有四张图片
print(a.shape) #输出结果 torch.Size([4,1,28,28])


b=torch.rand(32)
f=torch.rand(4,32,14,14)
b=b.unsqueeze(1).unsqueeze(2).unsqueeze(0)
print(b.shape) #输出结果torch.Size([1,32,1,1])

print(b.squeeze().shape)#表示把可以删减的维度全部删剪掉,是1就可以被挤压掉
 #输出结果torch.Size([32])


print(b.squeeze(0).shape) #表示把第0个维度的挤压掉
#输出结果torch.Size([32,1,1])

print(b.squeeze(-1).shape) 
#输出结果torch.Size([1,32,1])

print(b.squeeze(1).shape) #表示第一维的时数据32 ,不能被挤压,所以返回不变
#输出结果torch.Size([1,32,1,1])


print(b.squeeze(-4).shape) #输出结果torch.Size([32,1,1])

4、Transpose/t/permute

b.t()  矩阵的转置

print(a.shape) #输出结果[4,3,32,32]

a1=a.transpose(1,3).view(4,3*32*32).view(4,3,32,32) #数据的维度交换

a1=a.transpose(1,3).contiguous().view(4,3*32*32).view(4,3,32,32) #这种方式是错的

a2=a.transpose(1,3).contiguous().view(4,3*32*32).view(4,3,32,32).transpose(1,3) #正确表示方法

print(a1.shape) #输出结果[4,3,32,32]
print(a2.shape) #输出结果[4,3,32,32]

#验证
torch.all(troch.eq(a,a1))  #结果0 错误,数据不一致

torch.all(troch.eq(a,a2))  #结果1 正确 数据一致
a=torch.rand(4,1,28,28) #使用rand()函数随机均匀的初始化生成一个四维的tensor
print(a.transpose(1,3).shape) #结果[4,28,28,1]

b=torch.rand(4,1,28,32) 
print(b.transpose(1,3).shape) #结果[4,32,28,1]

print(b.transpose(1,3).transpose(1,2).shape) #结果[4,28,32,1]

#更简单的方法
print(b.permute(0,2,3,1)) #结果[4,28,32,1]

5、Expand/repeat

Expand:增加了维度,并没有增加数据,不会主动的复制数据,推荐使用

repeat:是实实在在增加了数据,

a=torch.rand(4,32,14,14)
print(b.shape) #输出结果torch.Size([1,32,1,1])

print(b.expend(4,32,14,14).shape) #直接扩展,原来的dim和要扩展之后的dim必须一致
#输出结果torch.Size([4,32,14,14])

print(b.expend(-1,32,-1,-1).shape) #-1表示保持原来的维度不变
#输出结果torch.Size([1,32,1,1])

print(b.expend(-1,32,-1,-4).shape) #这个是没有意义的  bug
#输出结果torch.Size([1,32,1,-4])
print(b.shape) #输出结果torch.Size([1,32,1,1])

print(b.repeat(4,32,1,1).shape) #1*4  32*32 1*1 1*1
#输出结果torch.Size([4,1024,1,1])

print(b.repeat(4,1,1,1).shape) #输出结果torch.Size([4,32,1,1])

print(b.repeat(4,1,32,32).shape) #输出结果torch.Size([4,32,32,32])



评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值