pytorch中的model.eval()与volatile=True与requires_grad=False

前言:

最近在看不同的代码,发现有几个地方存在疑惑,所以梳理一下。

1. model.eval()  model.train()

2.volatile=True or false

3. requires_grad = True or false

4. with torch.no_grad():

这个几个地方用来操作或者限定tensor在训练或者测试阶段是否进行:求导,或者一些其他限定。

一、 model.eval()  model.train()

官方文档

 从红色的方框可以看出model.eval() = model.train(False),那么再来看model.train()

 几层意思:

1.等价关系

>> model.train() =  model.train(True)

>>model.eval() = model.train(False)

2.这种命令只对特定的模块起作用,例如DropoutBatchNorm, etc.

model的eval方法主要是针对某些在train和predict两个阶段会有不同参数的层。比如Dropout层和BN层。但是在查阅资料,没有找到除了这两个以外的其他的模块。

如果模型中有BN层(Batch Normalization)和Dropout,在测试时添加model.eval()。model.eval()是保证BN层能够用全部训练数据的均值和方差,即测试过程中要保证BN层的均值和方差不变。对于Dropout,model.eval()是利用到了所有网络连接,即不进行随机舍弃神经元。否则的话,有输入数据,即使不训练,它也会改变权值。这是model中含有BN层和Dropout所带来的的性质。

总结:model.eval()  model.train()只对例如 

  • 6
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
PyTorch,设置参数的requires_grad属性为False可以将其标记为不需要梯度计算,从而不会在反向传播过程更新该参数的梯度值。然而,即使将参数的requires_grad属性设置为False,如果在模型使用了该参数进行计算,该参数仍然会被更新,因为PyTorch会根据计算图自动推导出需要更新的参数。 例如,假设模型的某个层使用了一个requires_gradFalse的参数进行计算: ``` class MyModel(nn.Module): def __init__(self): super(MyModel, self).__init__() self.fc = nn.Linear(10, 1, bias=False) self.fc.weight.requires_grad = False def forward(self, x): out = self.fc(x) return out ``` 在训练过程,即使将该参数的requires_grad属性设置为False,该参数仍然会被更新: ``` model = MyModel() optimizer = torch.optim.SGD(model.parameters(), lr=0.1) for i in range(10): x = torch.randn(1, 10) y = torch.randn(1, 1) optimizer.zero_grad() output = model(x) loss = nn.functional.mse_loss(output, y) loss.backward() optimizer.step() print(model.fc.weight) ``` 输出结果为: ``` tensor([[-0.0233, 0.0133, 0.1036, 0.0312, -0.0608, -0.1007, -0.1006, -0.0221, -0.0030, 0.0778]]) ``` 可以看到,虽然将fc层的权重设置为不需要梯度计算,但是该参数仍然被更新了。这是因为在反向传播过程PyTorch会根据计算图自动推导出需要更新的参数,而不是根据requires_grad属性来确定需要更新的参数。因此,在模型使用参数进行计算时,即使将其requires_grad属性设置为False,该参数仍然可能被更新。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

两只蜡笔的小新

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值