Pytorch基础之张量的存储方式及维度操作:size,shape,view,reshape,contiguous
最新推荐文章于 2024-08-17 18:40:02 发布
本文介绍了PyTorch中张量的存储方式,包括如何根据张量下标访问内存中的元素。接着详细阐述了如何获取张量的维度大小和数目,如size()和shape()方法的应用。此外,还讨论了张量维度变换的关键方法——view()和reshape(),强调了它们的区别以及contiguous()的作用,特别指出在涉及步长和维度兼容性问题时的使用场景。
摘要由CSDN通过智能技术生成