基于pytorch的深度模型参数分别优化与冻结

问题:

在深度学习的模型的训练的过程中,经常会遇到需要对不同的模型参数设置不同的学习策略,比如使用不同的学习率,设置权重衰减等,在pytorch框架中的设置相对来说是比较简单的。

pytorch中分别优化设置:

#coding:utf-8

import torch
from torchvision import models

#模型初始化
model = models.resnet50(pretrained=True)

#根据需要,进行参数分组(权重衰减设置)
pg0, pg1, pg2 = [], [], []  # optimizer parameter groups
for k, v in model.named_modules():
    if hasattr(v, 'bias') and isinstance(v.bias, nn.Parameter):
        pg2.append(v.bias)  # biases
    if isinstance(v, nn.BatchNorm2d):
        pg0.append(v.weight)  # no decay
    elif hasattr(v, 'weight') and isinstance(v.weight, nn.Parameter):
        pg1.append(v.weight)  # apply decay

#优化器设置
optimizer = optim.SGD(pg0, lr=0.001, momentum=0.0005, nesterov=True)
optimizer.add_param_group({'params': pg1, 'weight_decay': hyp['weight_decay']}) 
optimizer.add_param_group({'params': pg2})  # add pg2 (biases)

pytorch中冻结某些层设置:

from torchvision import models

model = models.resnet18()

# 冻结layer4以前的所有层,只训练layer4与全连接层(根据类别需自定义)
no_freeze = ['layer4','fc']  # parameter names to freeze (full or partial)

for k, v in model.named_parameters():
    v.requires_grad = True  # train all layers
    if not any(x in k for x in no_freeze):
        print('freezing %s' % k)
        v.requires_grad = False

参考:yolov5源码库中的train.py文件中

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值