pytorch学习 中 torch.squeeze() 和torch.unsqueeze()的用法

一、先看torch.squeeze() 这个函数主要对数据的维度进行压缩,去掉维数为1的的维度,比如是一行或者一列这种,一个一行三列(1,3)的数去掉第一个维数为一的维度之后就变成(3)行。

  • squeeze(a)就是将a中所有为1的维度删掉。不为1的维度没有影响。
  • a.squeeze(N) 就是去掉a中指定的维数为一的维度。

还有一种形式就是b=torch.squeeze(a,N) a中去掉指定的维数N为一的维度。

代码如下:

a=torch.randn(1,1,3)
print(a.shape)
b=torch.squeeze(a)
print(b.shape)
c=torch.squeeze(a,0)
print(c.shape)
d=torch.squeeze(a,1)
print(d.shape)
e=torch.squeeze(a,2)#如果去掉第三维,则数不够放了,所以直接保留
print(e.shape)

对应输出为:

torch.Size([1, 1, 3])
torch.Size([3])
torch.Size([1, 3])
torch.Size([1, 3])
torch.Size([1, 1, 3])

二、再看torch.unsqueeze()这个函数主要是对数据维度进行扩充。

给指定位置加上维数为一的维度,比如原本有个三行的数据(3),在0的位置加了一维就变成一行三列(1,3)。a.unsqueeze(N) 就是在a中指定位置N加上一个维数为1的维度。

还有一种形式就是b=torch.unsqueeze(a,N) a就是在a中指定位置N加上一个维数为1的维度。

代码如下:

a=torch.randn(1,3)
print(a.shape)
b=torch.unsqueeze(a,0)
print(b.shape)
c=torch.unsqueeze(a,1)
print(c.shape)
d=torch.unsqueeze(a,2)
print(d.shape)

对应输出如下:

torch.Size([1, 3])
torch.Size([1, 1, 3])
torch.Size([1, 1, 3])
torch.Size([1, 3, 1])
  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
torch.squeeze函数是用来对输入的张量进行处理的。它的作用是移除张量所有大小为1的维度,保留其他维度。函数的用法torch.squeeze(input, dim=None, *, out=None),其input表示输入的张量,dim表示要移除的指定维度(如果维度大小为1则移除,否则保留)。如果不指定dim,则会移除所有大小为1的维度。 举个例子,假设我们有一个大小为[2, 1, 2, 1, 2]的张量x,我们可以使用torch.squeeze函数对它进行处理。如果我们不指定dim参数,即使用torch.squeeze(x),那么所有大小为1的维度都会被移除,最终得到的张量y的大小为[2, 2, 2]。如果我们指定dim参数为0,即使用torch.squeeze(x, 0),但是维度0的size不为1,所以维度0会被保留,最终得到的张量y的大小仍为[2, 1, 2, 1, 2]。如果我们指定dim参数为1,即使用torch.squeeze(x, 1),维度1的size为1,所以维度1会被移除,最终得到的张量y的大小为[2, 2, 1, 2]。 总之,torch.squeeze函数可以根据指定的维度对输入的张量进行压缩,去除维度大小为1的部分,从而得到一个维度更小的张量。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [torch.squeeze用法](https://blog.csdn.net/weixin_42305201/article/details/124355611)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 33.333333333333336%"] - *2* [torch.squeeze 函数运用](https://blog.csdn.net/scar2016/article/details/122145351)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 33.333333333333336%"] - *3* [详解pytorchsqueeze()和unsqueeze()函数介绍](https://download.csdn.net/download/weixin_38629976/13707836)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 33.333333333333336%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值