PyTorch中veiw(),reshape() 的用法及其区别

一. veiw(), reshape()都是用于改变张量形状的函数,但是在实现上有一些差别。

二. veiw() 函数

1.作用:

        可以将张量重新组织为不同的维度和大小。它保持原始数据的顺序不变,并且不会创建新的内存副本。要注意的是,view()函数只能在改变形状的同时保持张量元素总数不变。

        注: 若Tensor在内存中的地址不是连续的,需要先使用contiguous()方法将原始tensor转换为满足连续条件的tensor,然后就可以使用view方法进行shape变换了。

2.实例:

(1)手动调整size

import torch

A = torch.arange(0,12)
print("A: ",A)
B = A.view(3,4)
print("B: ",B)
C = A.view(2,6)
print("C: ",C)

===========================================

A:  tensor([ 0,  1,  2,  3,  4,  5,  6,  7,  8,  9, 10, 11])
B:  tensor([[ 0,  1,  2,  3],
        [ 4,  5,  6,  7],
        [ 8,  9, 10, 11]])
C:  tensor([[ 0,  1,  2,  3,  4,  5],
        [ 6,  7,  8,  9, 10, 11]])

(2)自动调整size

A = torch.arange(0,12)
print("A: ",A)
B = A.view(-1,4)
print("B: ",B)
C = A.view(2,-1)
print("C: ",C)

=============================================
A:  tensor([ 0,  1,  2,  3,  4,  5,  6,  7,  8,  9, 10, 11])
B:  tensor([[ 0,  1,  2,  3],
        [ 4,  5,  6,  7],
        [ 8,  9, 10, 11]])
C:  tensor([[ 0,  1,  2,  3,  4,  5],
        [ 6,  7,  8,  9, 10, 11]])

 (3)分类器就是一个简单的nn.Linear()结构,输入输出都是一维的值,x = x.view(x.size(0), -1) 是为了将多维度的tensor展平成一维。

x = x.view(x.size(0), -1) 就是将网络的上一层输出的shape从第一维度开始将后面的维度展平,例如:前一层的输出shape是(1,512,1,1)经过x = x.view(x.size(0), -1)之后就变成了(1,512)

这样的操作所带来的影响就是网络转换的onnx在该层会多出一些冗余的层出来,为避免此现象可以改成 x = x.view(-1,512)

二. reshape() 函数

1.作用:

用于改变张量的形状(形状包括张量得尺寸和维度),类似于view()函数,但它可以改变元素总数。它保持原始数据的顺序不变,并且也不会创建新的内存副本。即:在满足tensor连续性条件时,a.reshape返回的结果与a.view()相同,否则返回的结果与a.contiguous().view()相同。

2.实例:

 (1)reshape函数不改变原始张量数据的大小和顺序,而是将原始数据重组为新的张量,以符合新的形状。

import torch

# 创建一个形状为(2,4)的张量
x = torch.Tensor([[0, 1, 2, 3], [4, 5, 6, 7]])

# 将张量重新reshape为形状为(8,1)
x = x.reshape((8, 1))

# 输出重组后的张量
print(x)
------------------------------------------
tensor([[0.],
        [1.],
        [2.],
        [3.],
        [4.],
        [5.],
        [6.],
        [7.]])

(2)张量扩展是一种通过增加维度来扩展张量的方法。

import torch

# 创建一个形状为(4,)的向量
x = torch.Tensor([0, 1, 2, 3])

# 张量扩展:将向量扩展为形状为(1,4)的张量
x = x.reshape((1, 4))

# 输出横跨三个维度的张量
print(x)
---------------------------------
tensor([[0., 1., 2., 3.]])

 (3)将多维张量展平为一维向量。

import torch

# 创建一个形状为(2,3)的张量
x = torch.Tensor([[0, 1, 2], [3, 4, 5]])

# 展平张量
x = x.reshape((-1,))

# 输出展平后的张量
print(x)
---------------------------------------
tensor([0., 1., 2., 3., 4., 5.])
 3.注意事项:

 (1)元组总数必须相同

       当使用reshape函数重新排列张量维度时,必须确保所有张量元素的总数相同,否则会抛出异常。例如,不能将一个形状为(3,3)的张量reshape为(2,3)的张量,因为元素总数不一样。同样的理由,不能将形状为(3,3)的张量reshape为形状为(1,8)的张量,原因也是元素总数不一样。

 (2)某些操作可能需要变量的形状

       在PyTorch中,有些操作可能需要符合特定形状的变量。例如,当我们需要在两个张量上执行矩阵相乘时,这两个张量的形状必须符合矩阵相乘的规则。在这种情况下,我们可以使用reshape函数将一个形状不正确的张量转换为新的形状,以符合操作的需要。

 (3)reshape() 返回的是视图,而不是副本

        PyTorch的reshape函数返回的是原始张量的新视图,而不是副本,因此原始张量和新形状的张量共享相同的数据。如果更改其中一个张量,则其他张量可能会收到影响。这也意味着,如果我们修改了使用reshape函数返回的张量,原始张量的形状也将会被改变。如果需要避免这种情况,可以使用clone函数创建一个新的张量。

 (4)零维张量不能被展平

       零维张量是一种特殊情况,它们不具有任何形状,也不包含元素。在大多数情况下,我们会避免创建零维张量或使用零维张量上的reshape函数,因为它们会导致程序异常。例如,试图展平零维张量时将引发:只有具有非零元素的张量才能通过展平函数进行展平的异常。下面是一个异常代码示例:

import torch

# 创建一个Form为()的零维张量
x = torch.Tensor(3)

# 试图展平零维张量时将引发异常
x = x.reshape((-1,))

# 异常信息:只有具有非零元素的张量才能通过展平函数进行展平
print(x)

 (5) PyTorch的张量可以在名称维中指定张量的名称。当我们使用reshape函数更改张量形状时,名称维也会自动更改。以下是一个示例代码:

import torch

# 创建一个形状为(2,3)的张量
x = torch.randn(2, 3)
x = x.name_("x")

# 将张量reshape为形状为(3,2)
y = x.reshape(3, 2)

# 输出张量名称和形状
print(y.name, y.shape)

需要注意的是,在使用view()reshape()函数时,要确保改变张量形状后元素总数与原始张量相同,以避免出现错误。此外,当需要改变张量形状时,建议优先使用view()函数,因为它具有更高的效率和灵活性。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值