pytorch 里面的 contiguous()是以 C 为顺序保存在内存里面,如果不是,则返回一个以 C 为顺序保存的tensor.
tensor_name.is_contiguous()
可以用来判断是否以 C 为顺序保存的。
一些可能导致不是以 C 为顺序保存的可能为:
1. narrow
2. transpose
import torch
x = torch.ones(10, 10)
x.is_contiguous() # True
x.transpose(0, 1).is_contiguous() # False
x.transpose(0, 1).contiguous().is_contiguous() # True
本文介绍了PyTorch中contiguous()函数的作用及使用方法。该函数确保张量在内存中连续存储,这对于某些操作至关重要。文章还列举了几种可能导致张量非连续存储的情况,并通过示例代码展示了如何检查并确保张量的连续性。
9773

被折叠的 条评论
为什么被折叠?



