在运行程序中:
def forward(self, x):
out = self.cnn(x)
out = out.view(out.size()[0], -1)
return self.fc(out)
python报错:
RuntimeError: view size is not compatible with input tensor's size and stride (at least one dimension spans across two contiguous subspaces). Use .reshape(...) instead.
这是因为view()需要Tensor中的元素地址是连续的,但可能出现Tensor不连续的情况,所以先用 .contiguous() 将其在内存中变成连续分布:
out = out.contiguous().view(out.size()[0], -1)
这样就好了。
补充说明:
这里简单说一下连续性是什么意思。多维张量在内存中存储是线性数组,而怎么去解读它,就需要自己定义shape,比如对于a[6]数组,可以解释为两行三列(2,3)或者三行两列(3,2)。而这里的索引和在内存中的线性数组的一一对应关系要符合一定的规则,符合就是连续的,不符合就不是,就得需要调用contiguous。而大家在训练网络中,并不需要理解背后的机理,这属于张量计算框架的内容,想要进一步了解的可以参考Github上的miniTorch教程。