我们在使用pytorch时,经常会用一个变量对另外一个变量赋值,但是某些操作得到的结果只是原变量的引用,内存是共享的,修改一个变量,其他变量的值也会受影响。有些操作得到的结果是对原变量的拷贝。
使用 b=a[:,:5,5]
b=a[0] b=a[…,0]
等操作得到的b是a的一个引用,内存是共享的,当b的值被某些操作修改后,a的值也会改变,
c=b.unsqueeze(0).expand(10,4)
, Tensor.expand_as()
操作得到的c与b的内存是共享的,expand增加的维度占用是同一块内存,当c的值被修改后,b的值也会被改变,a的值也会改变。
代数运算会对变量间的内存共享产生影响,下图左半部分当中,matchs=match.unsqueeze(0).expand(10,4).data,得到的matches与abc共享内存,但是当在式子中添加算术运算后,matchs=1.0*match.unsqueeze(0).expand(10,4).data,所得到的matches就于abc不再共享内存了,如下图右边所示。
c=b.unsqueeze(0).repeat(10,1)
,repeat操作得到的c是b的拷贝,修改c的值后b的值不会被影响。
如下图所示:
使用mask选择出来的值是原矩阵的拷贝,比如:data=abc[abc>10]
修改data的值不会影响abc的值。
pytorch变量间的内存共享
最新推荐文章于 2024-08-14 17:41:51 发布
PyTorch中,通过`=`赋值可能产生变量间的内存共享。`unsqueeze`和`expand`操作创建的变量会共享内存,修改其中一个会影响其他。而`repeat`则创建副本,不共享内存。算术运算如乘以1.0可以打破内存共享。选择操作如使用mask获取的值是原矩阵的拷贝,修改不影响原矩阵。
摘要由CSDN通过智能技术生成