tensor的view()和reshape()

介绍

在使用Pytorch时,我们经常需要对一些tensor进行形状的改变以满足神经网络对输入数据的维度要求,我们最常用的两种方式就是.view() 以及 .reshape(), 除此之外,还有一种方法是.resize_(), 这种方法不仅可以改变数据的形状,同时还可以做到数据的部分截取。

在这篇博文中,我会将前两种方式,即.view().reshape(),作为主要的介绍对象。

1.view()

我们通过调用.view()方法返回的结果是原始张量数据的另一个视图,即返回的张量与原始张量共享基础数据(但是不是共享内存地址!)。同时当我们使用.view()对原始张量进行reshape, 一个必要的条件是原始的张量必须在内存空间中连续分布(contiguous)。比如当我们在调用.view()方法前使用了诸如.permute() 或者.transpose()等张量维度调换的操作,就会产生该张量在内存空间分布不连续的情况,从而当我们进行.view()操作时,Pytorch会报如下错误

RuntimeError: view size is not compatible with input tensor’s size and stride (at least one dimension spans across two contiguous subspaces). Use .reshape(…) instead.

当我们遇到如上情况时,我们可以先将tensor进行tensor.contiguous()变换后再进行.view(),这样就不会报错了。或者也可以用.reshape()方法来代替.view()方法,同样也是可以的。下面我们就来看一看.reshape()方法。

2.reshape()

从作用上来说,.reshape()方法和.view()方法是一致的,都是想要在不改变数据总量的情况下改变原有张量的形状。但是正如前文所说,使用.view()方法进行形状重构需要保证原始tensor在内存空间中分布连续,不然无法进行重构。而.reshape()方法却不需要这个条件,因为.reshape()方法既可以返回原始tensor的视图(view)也可以返回原始tensor的一个copy, 具体哪种情况取决于这个原始tensor的内存空间分布是否连续。即如果发现这个原始tensor因为经过.permute().transpose()等操作变得在内存空间不连续,那么.reshape()方法会返回copy,而如果是正常情况,使用.reshape()也和.view()一样返回view。

  • 3
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值