深度神经网络将requires_grad设为True梯度全为0,step()后还会更新梯度问题的原因

目录

问题

原因

解决方法

方法

结果


问题

偶然发现明明将网络中某一层requires_grad设置为True,在loss.backward()后该层的梯度并不为None,反而全是0,并且optimizer.step()前后参数被更新了。

原因

这是在需要多次使用backward(),step()时会出现的问题,当第一次调用loss.backward(retain_graph=True)时,保留了计算图,因此这个被冻住的层的梯度并不

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
非常抱歉,我之前的回答有误。当我们将前面所有层的`requires_grad`置为False时,它们确实不应该进行梯度更新。请允许我进行更正。 在迁移学习中,我们通常冻结预训练模型的所有层,只更新最后一层或几层的参数。为了确保只更新最后一层的参数,我们需要置前面所有层的`requires_grad`为False,以防止它们进行梯度更新。 以下是一个修正后的示例: ```python import torch import torch.nn as nn # 加载预训练模型 pretrained_model = torch.hub.load('pytorch/vision:v0.9.0', 'resnet18', pretrained=True) # 冻结所有参数 for param in pretrained_model.parameters(): param.requires_grad = False # 替换最后一层连接层 pretrained_model.fc = nn.Linear(pretrained_model.fc.in_features, num_classes) # 解冻最后一层的参数 for param in pretrained_model.fc.parameters(): param.requires_grad = True # 创建优化器,只优化最后一层的参数 optimizer = torch.optim.SGD(pretrained_model.fc.parameters(), lr=0.001, momentum=0.9) # 训练过程 for epoch in range(num_epochs): for images, labels in dataloader: # 前向传播 outputs = pretrained_model(images) # 计算损失 loss = criterion(outputs, labels) # 反向传播并更新梯度 optimizer.zero_grad() loss.backward() # 更新参数 optimizer.step() ``` 在上述修正后的示例中,我们首先加载了一个预训练的ResNet-18模型,并将所有参数的`requires_grad`置为False。然后,我们替换了模型的最后一层连接层,并将最后一层参数的`requires_grad`置为True。这样,只有最后一层的参数参与梯度更新,而其他层的参数将保持不变。这样就实现了迁移学习中只更新最后一层参数的目标。非常抱歉之前给您带来的困扰。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值