x.view(a,b)及x = x.view(x.size(0), -1) 的理解说明

x.view()就是对tensor进行reshape:

我们在创建一个网络的时候,会在Foward函数内看到view的使用。
首先这里是一个简单的网络,有卷积和全连接组成。它的foward函数如下:

class NET(nn.Module):
    def __init__(self,batch_size):
        super(NET,self).__init__()
        self.conv = nn.Conv2d(outchannels=3,in_channels=64,kernel_size=3,stride=1)
        self.fc = nn.Linear(64*batch_size,10)
 
    def forward(self,x):
        x = self.conv(x)
        x = x.view(x.size(0), -1)  
        out = self.fc(x)

在CNN中卷积或者池化之后需要连接全连接层,所以需要把多维度的tensor展平成一维,x.view(x.size(0), -1)就实现的这个功能。
卷积或者池化之后的tensor的维度为(batchsize,channels,x,y),其中x.size(0)指batchsize的值,x = x.view(x.size(0), -1)简化x = x.view(batchsize, -1)。( 通过x.view(x.size(0), -1)将tensor的结构转换为了(batchsize, channelsxy),即将(channels,x,y)拉直,然后就可以和fc层连接了。)

示例:
x变量的本质就是一个4维向量,而在conv1层的输入的x为一个10 ∗ * 3 ∗ * 100 ∗ * 100的向量,参数分别表示batchsize,RGB,100 ∗ * 100图片大小,x经过一层层的卷积,最后10 ∗ * 256 ∗ * 4 ∗ * 4向量作为第四层卷积输出。

最后使用x.view(x.shape(0),-1)将x转化成一个10行的矩阵,矩阵的每一行就是这个批量(批量大小为10)中每张图片的各个参数(即256 ∗ * 4 ∗ * 4),即矩阵中一行对应一张图片。

view()函数的功能根reshape类似,用来转换size大小。x = x.view(batchsize, -1)中batchsize指转换后有几行,而-1指在不告诉函数有多少列的情况下,根据原tensor数据和batchsize自动分配列数。
在这里插入图片描述

x.view(a,b)解析

引用自:Python函数.view(1,-1)和 .view(-1,1)有什么区别
引用自:pytorch中的X.view[-1],X.view[-1,参数],X.view[参数,-1]

x.view[-1,参数a]以及x.view[参数a,-1]语句的作用就是根据参数来调整维度

  • x.view[参数a,-1]:就是根据参数b来自动调整列数;若需要展开的张量为[1,2,3,4,5,6],则表示在参数a(行数)已知,参数b未知的情况下自动补齐行向量长度,在这个例子中a=2(行数),张量总共含有6个元素,则b=6/2=3。
  • x.view[-1,参数b]:就是根据参数b来自动调整行数;若需要展开的张量为[1,2,3,4,5,6],则表示在参数a(行数)未知,参数b已知的情况下自动补齐行向量长度,在这个例子中b=2(列数),张量总共含有6个元素,则a=6/2=3。
  • x.view[-1]:-1本意是根据另外一个数来自动调整维度,但因为行数,列数参数都未知,最后就将所有维度数据调整为一维tensor

x.view(1, -1):这种形式的 .view() 操作将张量重新塑造为一个行数为 1,列数自动推断的二维张量。在推断列数时,会根据张量的总元素数量和行数来确定。如果张量原来的形状是 (a, b, c),则 .view(1, -1) 将其转换为 (1, a * b * c) 的形状。这种操作通常用于在保持张量元素总数不变的情况下,将多维张量展平为一维张量或行向量。若x.view(2,-1)如下:

>>> import torch
>>> re = torch.tensor([1, 2, 3, 4, 5,  6])
>>> result = re.view(2, -1)
>>> result
tensor([[1, 2, 3],
        [4, 5, 6]])
# torch.view(参数a,-1 ),则表示在参数a(行数)已知,参数b未知的情况下自动补齐行向量长度,在这个例子中a=2(行数),张量总共含有6个元素,则b=6/2=3。

x.view(-1, 1):这种形式的 .view() 操作将张量重新塑造为一个列数为 1,行数自动推断的二维张量。在推断行数时,会根据张量的总元素数量和列数来确定。如果张量原来的形状是 (a, b, c),则 .view(-1, 1) 将其转换为 (a * b * c, 1) 的形状。这种操作通常用于在保持张量元素总数不变的情况下,将多维张量展平为一维张量或列向量。若x.view(-1,2)如下:

>>> import torch
>>> re = torch.tensor([1, 2, 3, 4, 5,  6])
>>> result = re.view(-1, 2)
>>> result
tensor([[1, 2],
        [3, 4],
        [5, 6]])
# torch.view(-1, 参数b),则表示在参数a未知,参数b已知的情况下自动补齐行向量长度,在这个例子中b=3,re总共含有6个元素,则a=6/2=3。

x.view(-1)中的-1本意是根据另外一个数来自动调整维度,但是这里只有一个维度,因此就会将x里面的所有维度数据转化成一维的,并且按先后顺序排列。

因此,.view(1, -1) 和 .view(-1, 1) 的区别在于最终张量的形状,前者得到一个行向量或一维张量,后者得到一个列向量或一维张量。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

梦在黎明破晓时啊

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值