pytorch如何冻结某层参数的实现

pytorch冻结某层参数
目的:加载已经训练好的某层参数,让其不进行反向传播。
如何加载已经训练好的模型:链接

pytorch如何冻结某层参数的实现,步骤如下:
例如,我要将self.classifier = Classifer(128, num_classes) 及其以上的层给冻结掉,训练时,不反向传播。
第一步:

...
self.classifier = Classifer(128, num_classes)  #将这行及其以上的层冻结
for p in self.parameters():  #加入这两行代码                  
    p.requires_grad = False
# 下面的层仍能反向传播      
self.conv1_1 = nn.Conv2d(128, out_channels=64, kernel_size=2, stride=2, padding=0)           

第二步:

params = [p for p in model.parameters() if p.requires_grad] #加入这一行                                                                         
optimizer = torch.optim.SGD(params, lr=learning_rate,momentum= 0.9,weight_decay=1e-4) 
  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值