pytorch中的model.eval()与volatile=True与requires_grad=False

本文详细介绍了PyTorch中模型在训练和评估阶段的常用操作,包括model.eval()与model.train()的切换,volatile参数的弃用,requires_grad的真伪对参数更新的影响,以及torch.no_grad()的作用。重点讨论了model.eval()对Dropout和Batch Normalization层的影响,以及requires_grad在控制梯度计算中的关键角色。
摘要由CSDN通过智能技术生成

前言:

最近在看不同的代码,发现有几个地方存在疑惑,所以梳理一下。

1. model.eval()  model.train()

2.volatile=True or false

3. requires_grad = True or false

4. with torch.no_grad():

这个几个地方用来操作或者限定tensor在训练或者测试阶段是否进行:求导,或者一些其他限定。

一、 model.eval()  model.train()

官方文档

 从红色的方框可以看出model.eval() = model.train(False),那么再来看model.train()

 几层意思:

1.等价关系

>> model.train() =  model.train(True)

>>model.eval() = model.train(False)

2.这种命令只对特定的模块起作用,例如DropoutBatchNorm, etc.

model的eval方法主要是针对某些在train和predict两个阶段会有不同参数的层。比如Dropout层和BN层。但是在查阅资料,没有找到除了这两个以外的其他的模块。

如果模型中有BN层(Batch Normalization)和Dropout,在测试时添加model.eval()。model.eval()是保证BN层能够用全部训练数据的均值和方差,即测试过程中要保证BN层的均值和方差不变。对于Dropout,model.eval()是利用到了所有网络连接,即不进行随机舍弃神经元。否则的话,有输入数据,即使不训练,它也会改变权值。这是model中含有BN层和Dropout所带来的的性质。

总结:model.eval()  model.train()只对例如 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

两只蜡笔的小新

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值