pytorch中的contiguous的理解

pytorch中的contiguous的理解

在这里插入图片描述
来自官网的回答,感觉说和没说一样。。。。

https://blog.csdn.net/bigFatCat_Tom/article/details/97170387
来自某友的回答:
== contiguous()——把tensor变成在内存中连续分布的形式
需要变成连续分布的情况:
contiguous:view只能用在contiguous的variable上。
如果在view之前用了transpose, permute等,需要用contiguous()来返回一个contiguous copy。==
其给了一个例子:
在这里插入图片描述
发现丝毫没有影响,那是为什么?为什么?为什么?为什么?…
答案:其实上面的博主解释的没有问题,那为什么会产生non-contiguous tensor呢?其实这与其在内存的存贮有关,大多数操作在构建新张量时都保持连续性。 如果操作在数组中操作并且改变维度,则可能会看到非连续的输出
而transpose, permute等,就是这样的函数,但这不影响结果,而view()只能接受contiguous tensor,所以有时候会出问题。所以尽可能的使用reshape代替view!!!!!!
参考:https://stackoverflow.com/questions/54095351/in-pytorch-what-makes-a-tensor-have-non-contiguous-memory

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值