pytorch变量间的内存共享

PyTorch中,通过`=`赋值可能产生变量间的内存共享。`unsqueeze`和`expand`操作创建的变量会共享内存,修改其中一个会影响其他。而`repeat`则创建副本,不共享内存。算术运算如乘以1.0可以打破内存共享。选择操作如使用mask获取的值是原矩阵的拷贝,修改不影响原矩阵。
摘要由CSDN通过智能技术生成

我们在使用pytorch时,经常会用一个变量对另外一个变量赋值,但是某些操作得到的结果只是原变量的引用,内存是共享的,修改一个变量,其他变量的值也会受影响。有些操作得到的结果是对原变量的拷贝。
使用 b=a[:,:5,5] b=a[0] b=a[…,0] 等操作得到的b是a的一个引用,内存是共享的,当b的值被某些操作修改后,a的值也会改变,
c=b.unsqueeze(0).expand(10,4) , Tensor.expand_as()操作得到的c与b的内存是共享的,expand增加的维度占用是同一块内存,当c的值被修改后,b的值也会被改变,a的值也会改变。
代数运算会对变量间的内存共享产生影响,下图左半部分当中,matchs=match.unsqueeze(0).expand(10,4).data,得到的matches与abc共享内存,但是当在式子中添加算术运算后,matchs=1.0*match.unsqueeze(0).expand(10,4).data,所得到的matches就于abc不再共享内存了,如下图右边所示。
在这里插入图片描述
c=b.unsqueeze(0).repeat(10,1),repeat操作得到的c是b的拷贝,修改c的值后b的值不会被影响。
如下图所示:
在这里插入图片描述
使用mask选择出来的值是原矩阵的拷贝,比如:data=abc[abc>10] 修改data的值不会影响abc的值。
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值