pytorch 中的存储方式

1 逻辑存储与内存存储 

对于一个Tensor来说,我们可以认为它有两种存储方式

  • 逻辑存储

  • 内存存储

 

1.1 高维张量

  • 在torch/numpy中, 即使是高维张量在内存中也是存储在一块连续的内存区域中
  • 会记录一些元信息来描述数组的"形态", 例如起始地址, 步长 (stride), 大小 (size)等.
  • 对高维张量进行索引时我们采用起始地址 + 地址偏移量的计算方式, 而地址偏移量就需要用到stride和size的信息

当我们在使用view去修改tensor的时候, 其实我们并没有修改tensor在内存中的存储, 而只是通过修改stride和size来描述张量形状的变化: 

1.2 按行展开和按列展开

  •  如果张量x的行优先展开形式和其内存存储一致, 则我们称之为C-contiguous.
    • Numpy, Pytorch中的contiguous指的就是C-contiguous
  • 如果张量x的列优先展开形式和其内存存储一致, 则我们称之为Fortran-contiguous.
    • Matlab, Fortran中的contiguous指的是Fortran-contiguous.

2 View,reshape,permute

2.1 view

  • view要求输入和输出的tensor都是contiguous的, 否则会throw exception
  • 换言之, 你不管对一个tensor使用了多少次view, 你都只是在改变stride和size, 并没有修改这个tensor的内存存储

2.2 reshape

  • 对于contiguous的输入, reshape等于view
  • 对于incontiguous的输入, reshape等于tensor.contigous().view
    • 其中contiguous()会开辟一块新的内存空间, 将incontiguous的张量按照行优先展开的方式存储进去.
    • 所以reshape是有可能修改内存存储的结构的

2.3 permute

  • 虽然permuteview一样, 都是修改stride和size, 但是permute并不保证返回的tensor是contiguous的.
  • 换言之permute().contiguous()就有可能修改内存存储方式了.

参考文献:Pytorch中的View, Reshape, Permute | Lemon's Blog (coderlemon17.github.io)

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UQI-LIUWJ

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值