fcn网络代码细节,inplace=True (原地操作)

文章讨论了PyTorch中`nn.ReLU(inplace=True)`的内存优势,以及在使用inplace操作时需注意的变量引用和计算一致性问题,特别指出在多分支网络中不当使用可能导致错误输出。
摘要由CSDN通过智能技术生成
self.conv1 = nn.Conv2d(in_channels=3, out_channels=64, kernel_size=7, stride=2, padding=3, bias=False)
#112*112*64

self.bn1 = nn.BatchNorm2d(64)
#用了BatchNorm2d之后卷积的bias起不到任何效果了,所以bias=False,省下一些参数

self.relu = nn.ReLU(inplace=True)
#inplace=True能节省内存

Pytorch的很多地方有inplace这个参数,最近遇到的是nn.ReLU(inplace=True)。还有torch.sigmoid_等

inplace默认是False

inplace的含义是是否进行覆盖运算。即改变一个tensor的值的时候,不经过复制操作,而是直接在原来的内存上改变它的值

nn.Conv2d(3, 64, kernel_size=11, stride=4, padding=2),
nn.ReLU(inplace=True)

的意思就是对从上层网络Conv2d中传递下来的tensor直接进行修改,这样能够节省运算内存,不用多存储其他变量
注: 产生的计算结果不会有影响。利用inplace计算可以节省内(显)存,同时还可以省去反复申请和释放内存的时间。但是会对原变量覆盖,只要不带来错误就用。

 现在在网上可以看到两种说法,一是inplace=True可以节约显存,应该使用;二是inpalce=True可能会影响训练的时候的梯度传递最好不要用。那到底是怎样的呢?

      inplace操作更加节省内存,但是如果该内存可能被其他变量引用,可能导致计算一致性的问题,存在后效性。考虑到Pytorch中的F.relu函数或者nn.ReLU(inplace=True)层,在使用原地操作前,我们要确定其是贯序(Sequential)结构,而不会存在被其他变量引用的情况

错误使用的例子

例如我们想实现这样一个pipeline

import torch
import torch.nn as nn
 
my_conv1 = nn.Conv2d(in_channels=2, out_channels=2, kernel_size=3, stride=1, padding=1)
my_relu = nn.ReLU(inplace=True)
my_conv2 = nn.Conv2d(in_channels=2, out_channels=2, kernel_size=3, stride=1, padding=1)
 
x = torch.rand(1,2,3,4)
x1 = my_conv1(x)
h = my_relu(x1)
y = my_conv2(x1)

这样做就是有问题的。因为在x1在经过my_relu之后,其值经过改变,现在其值相当于h

所以 y = my_conv2(x1)在这里,其实相当于y=my_conv2(h)

这样得到的结果就不是我们预期的了。这种情况在多分支(Multi-branch)的网络中很常出现

  • 5
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值