Pytorch使用教学5-视图view与reshape的区别

在这里插入图片描述

有同学后台留言问为什么view有时可对张量进行形变操作,有时就会报错?另外它和reshape功能好像一致,有什么区别呢?本文就带你了解PyTorch中视图的概念。

PyTorch中对张量进行形变操作时,很多同学也会使用view方法,但是经过一系列变化后,你可能会发现你的张量错乱了,而且不能继续形变。或者你可能都不知道你的张量发生了变化,一直在处理错误数据…

tensor.view方法

该方法可以改变张量结构,生成一个不同结构但共享一个存储空间的张量。也就代表view是浅拷贝的关系,修改其中一个张量,另一个张量也会同步进行更改。

# 生成一个2行3列的矩阵
t = torch.arange(6).reshape(2, 3)
t
# tensor([[0, 1, 2],
#        [3, 4, 5]])

# 将t.view(3, 2)的结果赋值给te
te = t.view(3, 2)
te
# tensor([[0, 1],
#         [2, 3],
#         [4, 5]])

这时我们对张量t进行修改,然后我们打印te,会发现te中的值也发生了变化:

# 对t的0号索引位置进行修改1
t[0] = 1

# 打印te,同步变化
te
# tensor([[1, 1],
#         [1, 3],
#         [4, 5]])

tensor.view方法会返回一个“视图”的结果,该结果和原张量对象共享一块数据存储空间,而不会生成一个新的对象,大家在使用时要格外注意。若想生成新的对象,建议使用深拷贝clone方法。

视图是什么?

视图是数据的一个别称或引用(它们物理内存在同一位置),通过该别称或引用便可访问、操作原有数据,但原有数据不会产生拷贝。如果我们对视图进行修改,它可以改变原始数据,这样就避免了重新创建张量的高内存开销。

与之对应的概念就是副本。副本是一个数据的完整的拷贝,如果我们对副本进行修改,它不会影响到原始数据,因为它们的物理内存不在同一位置。

viewreshape的区别

它们功能看似一样,那么两者都存在的意义是什么呢?先给出结论:

  • view:只适用于满足连续性条件的Tensor,并且该操作不会开辟新的内存空间,只是原数据的别称或引用,返回值是视图。
  • reshape:当Tensor满足连续性时,与view方法相同,返回的是视图;当Tensor不满足连续性时,返回的是副本。

这里的关键词就是连续性。我们使用代码进行说明:

a = torch.arange(6).reshape(2, 3) 
print(a.shape)
# torch.Size([2, 3])

# is_contiguous()判断是否连续
print(a.is_contiguous())
# True

可以看出,在利用torch.arange函数进行Tensor创建时,获取的Tensor元素地址是连续内存空间保存的。如果对的Tensor进行转置操作:

b = a.permute(1, 0)
print(b.shape)
# torch.Size([3, 2])

print(b.is_contiguous())
# False

我们发现经过转置以后,Tensor会变成非连续保存类型uncontiguous。那么,变成非连续保存类型后,就不能使用view对它进行形变操作,否则就会报错:

b.view(2, 3)
# RuntimeError

但这时我们可以使用reshape对其进行形变,并且会新开建一块地址进行储存:

c = b.reshape(2, 3)
c
# tensor([[0, 3, 1],
#         [4, 2, 5]])

# 改变原始张量a的数据
a[0][1] = 222
a
# tensor([[  0, 222,   2],
#         [  3,   4,   5]])

# 此时c不会改变
c = b.reshape(2, 3)
c
# tensor([[0, 3, 1],
#         [4, 2, 5]])

# 但是b的数据会变,因为b和a还共有同一储存地址
b
# tensor([[  0,   3],
#         [222,   4],
#         [  2,   5]])

是不是很神奇?其实view可以做的,reshape都可以做。reshape相当于先开辟了一个新地址,这个地址储存了和之前数据一样的连续性数据,再进行了view操作,就是使用contiguous方法:

# 先开辟一个新地址将数据复制,再进行view操作:
b.contiguous().view(2, 3)
b
# tensor([[0, 3, 1],
#         [4, 2, 5]])

reshape方法的内部执行过程:

  • 如果张量是满足连续,那么它就直接调用view方法
  • 如果张量不连续,就先调用contiguous方法进行拷贝,再使用view方法进行转换

view的存在可以明确表示对张量的操作只能是视图操作而非拷贝操作。这对于代码的可读性以及后续可能的bug查找比较友好。

而如果您一定要对张量进行形变,建议直接使用reshape

这就是reshapeview的区别,还需同学们多多梳理理解,在实际使用时避坑。

Pytorch张量操作大全:

Pytorch使用教学1-Tensor的创建
Pytorch使用教学2-Tensor的维度
Pytorch使用教学3-特殊张量的创建与类型转化
Pytorch使用教学4-张量的索引
Pytorch使用教学5-视图view与reshape的区别
Pytorch使用教学6-张量的分割与合并
Pytorch使用教学7-张量的广播
Pytorch使用教学8-张量的科学运算
Pytorch使用教学9-张量的线性代数运算
Pytorch使用教学10-张量操作方法大总结

在这里插入图片描述

  • 6
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值